0 00:00:05,000 --> 00:00:15,000 INDOXXI Support dengan like & share :) 1 00:00:10,400 --> 00:00:14,400 Engkau yang menciptakan aku, tapi akulah tuannya... 2 00:00:35,410 --> 00:00:37,390 Kita ini sedang di dalam zaman apa? 3 00:00:37,390 --> 00:00:44,830 Kita sedang di zaman perkembangan Kecerdasan Buatan... 4 00:00:45,370 --> 00:00:51,310 Teknologi ber-evolusi lebih cepat daripada keamanan masyarakat. 5 00:00:51,310 --> 00:00:55,520 Robot segera hadir, dan akan menghancurkan hidup kita. 6 00:01:01,710 --> 00:01:04,410 Kami memiliki jaringan Kecerdasan yang memantau semua... 7 00:01:04,410 --> 00:01:08,200 Tahu segalanya tentang kita, dan akan mengubah kita. 8 00:01:08,450 --> 00:01:12,100 Twitter menjadi situs berita nomor satu! 9 00:01:12,600 --> 00:01:17,230 Teknologi tidaklah positif atau negatif, tergantung kitanya dengan teknologi. 10 00:01:19,300 --> 00:01:22,560 Pada akhirnya jutaan orang akan kehilangan pekerjaan. 11 00:01:22,600 --> 00:01:25,350 Karena keahlian mereka akan dikalahkan. 12 00:01:25,450 --> 00:01:30,650 Pengangguran menjamur, kesenjangan, penahanan sosial. 13 00:01:32,350 --> 00:01:35,350 TIdak ada hubungannya, takut atau tidak takut. 14 00:01:35,380 --> 00:01:38,000 Perubahan akan datang dan tiada yang dapat menghentikan. 15 00:01:44,500 --> 00:01:49,000 Kami telah diinves banyak uang, itulah alasannya juga pihak militer... 16 00:01:49,080 --> 00:01:53,000 mau tidak mau wajib menggunakan teknologi. 17 00:01:53,300 --> 00:01:57,300 Sistem senjata otomatis, sebabkan lomba menciptakan senjata... 18 00:01:57,450 --> 00:01:59,800 sebagai upaya bertahan, dalam era nuklir. 19 00:02:02,130 --> 00:02:05,520 - Siapa yang tahu alasannya? - Yang pasti akan membunuh kita semua. 20 00:02:10,650 --> 00:02:14,600 Saking pesatnya akan menimbulkan... keajaiban besar? 21 00:02:15,750 --> 00:02:17,400 Dan kengerian besar. 22 00:02:24,350 --> 00:02:25,650 Kami ciptakan ini... 23 00:02:27,210 --> 00:02:30,600 dan karena upaya kami, Kecerdasan ini... 24 00:02:30,600 --> 00:02:32,600 menjadi bagian dari kita. 25 00:02:34,050 --> 00:02:35,700 Yang jadi pertanyaan adalah... 26 00:02:35,800 --> 00:02:38,090 apakah ini akan baik untuk kita, 27 00:02:39,500 --> 00:02:40,800 atau buruk untuk kita? 28 00:02:47,850 --> 00:02:49,850 Anda percaya dengan komputer? 29 00:03:04,950 --> 00:03:08,540 Yang selamat dari perang akhir zaman. 30 00:03:08,620 --> 00:03:11,000 Mereka tidak akan bermimpi buruk lagi... 31 00:03:12,400 --> 00:03:14,450 yaitu perang melawan robot. 32 00:03:15,210 --> 00:03:17,210 Kurasa ini dosa kita. 33 00:03:18,140 --> 00:03:22,220 Saya rasa Hollywood mengatakan ke publik, bertentangan dengan... 34 00:03:22,510 --> 00:03:23,510 pertanyaan ini. 35 00:03:24,140 --> 00:03:27,300 Gagasan bahwa robot akan menguasai dunia. 36 00:03:28,550 --> 00:03:30,810 Buka pintunya, Hal. 37 00:03:31,850 --> 00:03:33,400 Maaf, Dave... 38 00:03:33,560 --> 00:03:35,730 sepertinya aku tidak bisa. 39 00:03:37,880 --> 00:03:38,750 Hal? 40 00:03:38,840 --> 00:03:42,550 Kami sudah memberi tahu, tapi publik tidak mau tahu... 41 00:03:42,700 --> 00:03:45,660 memang cuma fiksi ilmiah, tapi coba lihat yang film ini maksudkan... 42 00:03:45,670 --> 00:03:47,900 memang tampaknya bodoh, atau... 43 00:03:47,900 --> 00:03:49,900 film ini hanyalah... 44 00:03:50,200 --> 00:03:51,450 karangan yang murah. 45 00:03:51,450 --> 00:03:56,000 WOPR selama ini memikirkan Perang Dunia 3. 46 00:03:56,460 --> 00:03:57,670 Kenyataannya tidak. 47 00:03:58,900 --> 00:04:02,000 Masyarakat umum tidaklah melihat ini. 48 00:04:11,350 --> 00:04:14,800 Saat ini masyarakat semakin individual, meningkat pula... 49 00:04:15,050 --> 00:04:17,250 mesin yang berbasis Kercerdasan. 50 00:04:18,850 --> 00:04:22,550 Saat kita memegang smartphone kita... 51 00:04:22,550 --> 00:04:26,240 yang biasa kita gunakan untuk, membuat keputusan dalam hidup kita. 52 00:04:26,580 --> 00:04:30,620 Padahal gawai tersebut menggunakan algoritma yang tidak kita ketahui. 53 00:04:34,440 --> 00:04:37,750 Kita letih dengan telepon yang hanya digunakan untuk komunikasi... 54 00:04:37,760 --> 00:04:39,850 malah benda tersebut yang paling mengerti kita. 55 00:04:39,850 --> 00:04:42,170 Aku menemukan banyak film aksi. 56 00:04:42,170 --> 00:04:44,300 Lima tahun yang lalu, bukan apa-apa. 57 00:04:44,760 --> 00:04:48,650 Robot itu mesin yang melihat, berbicara dan mendengar... 58 00:04:48,650 --> 00:04:49,890 sudah jadi kenyataan. 59 00:04:50,140 --> 00:04:54,050 Dan teknologi ini. Akan mengubah masyarakat kita. 60 00:04:56,000 --> 00:04:59,100 Saat ini sudah ada mobil yang berjalan sendiri. 61 00:05:00,020 --> 00:05:04,300 Mobil yang berjalan otomatis, dapat membuat hidup jadi lebih baik. 62 00:05:05,950 --> 00:05:09,300 Saya kehilangan banyak orang dekat, termasuk ibu... 63 00:05:09,700 --> 00:05:11,550 kakak dan adik saat saya masih kecil. 64 00:05:11,740 --> 00:05:13,120 karena kecelakaan mobil. 65 00:05:13,850 --> 00:05:17,050 Sudah pasti, kita dapat menghapus... 66 00:05:17,050 --> 00:05:19,850 kecelakaan mobil dengan Gerak Otomatis. 67 00:05:19,950 --> 00:05:23,550 Tiga ribu nyawa di US dalam setahun. Jutaan nyawa di dunia setahun. 68 00:05:25,450 --> 00:05:29,450 Dalam bidang Kesehatan, juga sangat memerlukan karena... 69 00:05:29,850 --> 00:05:32,100 di situlah kita juga dapat menyelamatkan nyawa, 70 00:05:33,660 --> 00:05:35,520 Ini pusat kanker payudara. 71 00:05:35,520 --> 00:05:38,880 Yang telah dilakukan radiologist otak adalah... 72 00:05:39,560 --> 00:05:42,980 dalam dua menit komputer menemukannya, sangat cepat. 73 00:05:43,690 --> 00:05:47,110 Komputer sudah melihat satu juta jaringan... 74 00:05:47,110 --> 00:05:50,830 membuat data tersebut menjadi gambar ini. dengan cepat. 75 00:05:51,410 --> 00:05:54,080 Jadi, jasanya dalam kedokteran, sangat besar. 76 00:05:56,360 --> 00:05:59,890 Yang lebih menarik lagi, di mana terjadi banyak perkembangan adalah... 77 00:05:59,890 --> 00:06:02,700 pemahaman dalam kode genetik. 78 00:06:03,300 --> 00:06:07,380 Dan digunakan untuk, mendiagnosa dan menyembuhkan penyakit. 79 00:06:11,800 --> 00:06:16,200 Penerapan mesin-mesin ini, untuk memperluas kecerdasan kita. 80 00:06:17,220 --> 00:06:21,600 Dapat membuat kita semakin cerdas, juga membantu dalam menyelesaikan masalah. 81 00:06:22,550 --> 00:06:26,000 Mengenai umur, mesin membantu memahaminya, kita bisa hentikan itu. 82 00:06:27,000 --> 00:06:30,500 Tidak ada batasnya, Kecerdasan Buatan dalam membantu manusia. 83 00:06:36,100 --> 00:06:39,790 Bagaimana bisa, mesin yang cerdas tidak membuat kehidupan lebih baik? 84 00:06:41,880 --> 00:06:46,510 Saya tidak tahu kapan, saya pernah berpikir kalau hal itu naif. 85 00:06:56,690 --> 00:07:00,700 Pak Russel adalah dewa dalam masalah KB. 86 00:07:00,700 --> 00:07:03,700 Dia menulis buku yang digunakan setiap Universitas. 87 00:07:04,150 --> 00:07:06,820 Dulu menurut saya itu buku laris tentang KB, 88 00:07:06,820 --> 00:07:10,200 tapi sekarang, PDF-nya sudah ada yang bajakan. 89 00:07:13,430 --> 00:07:16,740 KB adalah upaya membuat komputer cerdas. 90 00:07:17,100 --> 00:07:19,660 Tapi dari sudut pandang publik... 91 00:07:19,660 --> 00:07:23,250 KB hanyalah sesuatu yang membuat orang terkesan... 92 00:07:23,250 --> 00:07:24,670 dibanding yang kami pikirkan. 93 00:07:24,880 --> 00:07:26,880 Mesin dapat berbuat seperti manusia. 94 00:07:28,240 --> 00:07:31,430 KB penuh penelitian... 95 00:07:31,430 --> 00:07:35,390 supaya dapat meniru setiap kemampuan manusia. 96 00:07:36,600 --> 00:07:38,250 Kita sedang dalam era KB. 97 00:07:38,640 --> 00:07:42,210 Jadi segalanya difokuskan untuk KB apapun yang terjadi. 98 00:07:42,210 --> 00:07:45,330 Seperti jaringan sosial dan sosial media selama dekade ini... 99 00:07:45,330 --> 00:07:47,500 sudah jelas, hal itu jadi pengenalan. 100 00:07:48,000 --> 00:07:50,450 Diawali oleh Mesin Yang Belajar... 101 00:07:50,610 --> 00:07:53,200 Kalau kita melihat ke belakang, kapan asal KB? 102 00:07:54,070 --> 00:07:57,070 Bukan hal yang seronok, dan juga tidak ada dalam film. 103 00:07:57,070 --> 00:07:59,600 Kita bisa lihat, Google. 104 00:08:00,000 --> 00:08:02,500 Bukan mesin pencari tapi Pertolongan Tuhan. 105 00:08:03,200 --> 00:08:07,750 Muncul pertanyaan yang tidak ditanya, tanya apapun, jawabannya pasti dapat. 106 00:08:08,090 --> 00:08:13,260 Banyak yang tidak tahu, kalau Google itu adalah KB. 107 00:08:13,550 --> 00:08:17,220 Ketik saja yang diinginkan, Google akan memberi jawaban. 108 00:08:18,100 --> 00:08:21,100 Setiap satu pencarian, Google belajar supaya lebih baik. 109 00:08:21,390 --> 00:08:23,310 Lihat saja, ketika Anda mengetik... 110 00:08:23,310 --> 00:08:26,480 jawabannya sudah muncul sebelum Anda selesai mengetik. 111 00:08:27,250 --> 00:08:29,900 Contoh, siapa presiden Kazakstan, 112 00:08:29,900 --> 00:08:31,200 Google langsung beritahu. 113 00:08:31,550 --> 00:08:34,250 Tidak perlu melihat halaman Kazakstan. 114 00:08:34,740 --> 00:08:36,450 Tidak perlu sama sekali. 115 00:08:36,950 --> 00:08:39,070 Itu yang namanya Kecerdasan Buatan. 116 00:08:39,290 --> 00:08:41,550 Inilah yang saat ini kami coba pahami. 117 00:08:41,830 --> 00:08:43,790 Google berkata, "Bagaimana kalau ada yang terlewat?" 118 00:08:44,450 --> 00:08:48,250 Suatu kontradiksi yang sulit, itu yang kami hadapi. 119 00:08:48,250 --> 00:08:53,750 Google dan Facebook telah memberi kita banyak sekali hal baru. 120 00:08:54,000 --> 00:08:58,890 Tapi tidak cuma-cuma, mereka mengekstrak sesuatu sebagai gantinya. 121 00:09:00,200 --> 00:09:04,800 Dan kita tidak tahu, kode macam apa yang bekerja dibalik semua itu. 122 00:09:06,450 --> 00:09:10,190 Inilah masalah utamanya, bisakah kita percayai mesin ini? 123 00:09:14,000 --> 00:09:17,770 Saya menggunakan komputer, dalam setiap keadaan. 124 00:09:17,990 --> 00:09:21,200 Banyak sekali untungnya komputer... 125 00:09:21,200 --> 00:09:23,660 dan sudah menjadi bagian besar hidup kami. 126 00:09:23,660 --> 00:09:28,900 Mengagumkan yang namanya komputer, karena sudah muat ditaruh dompet. 127 00:09:28,960 --> 00:09:31,380 Bagi saya, mengagumkan sekali. 128 00:09:31,600 --> 00:09:33,650 Menurut saya teknologi itu... 129 00:09:33,650 --> 00:09:36,800 dibuat untuk memudahkan kita semua. 130 00:09:37,250 --> 00:09:40,180 Jadi, difokuskan saja perkembangannya. 131 00:09:40,680 --> 00:09:44,000 Kayaknya semua orang cinta sama komputernya. 132 00:09:51,550 --> 00:09:55,750 Orang-orang tidak ada yang tahu, kalau mereka perlahan diperbudak... 133 00:09:56,110 --> 00:09:57,200 oleh mesin. 134 00:09:59,320 --> 00:10:02,450 Oleh harga produk di Amazon. 135 00:10:02,910 --> 00:10:05,450 seperti harga tiket pesawat, 136 00:10:05,450 --> 00:10:08,330 atau ruangan hotel yang dipesan. 137 00:10:08,800 --> 00:10:11,850 Melihat itu, mesin mempelajari algoritma baru... 138 00:10:11,850 --> 00:10:13,850 menentukan bahwa orang seperti Anda... 139 00:10:14,100 --> 00:10:17,400 termasuk yang maunya murah, mengenai harga. 140 00:10:21,600 --> 00:10:25,050 Sekarang komputer sudah bisa, melihat jutaan orang dalam 1 detik... 141 00:10:25,050 --> 00:10:27,550 dengan cara yang cerdas. 142 00:10:27,890 --> 00:10:30,480 Anda bisa melihat jejak digital... 143 00:10:30,990 --> 00:10:34,450 seperti daftar putar seseorang dalam Spotify. 144 00:10:34,600 --> 00:10:36,900 atau barang yang mereka beli di Amazon. 145 00:10:36,900 --> 00:10:42,660 lalu Algoritma menerjemahkan, serinci dan seakurat mungkin... 146 00:10:42,670 --> 00:10:43,910 profil orang tersebut. 147 00:10:50,850 --> 00:10:55,420 jadi sangat akurat yang mesin ketahui, dibanding ibu kalian. 148 00:11:04,550 --> 00:11:06,500 Penyebab utama adanya KB bukanlah... 149 00:11:06,500 --> 00:11:10,980 karena orang yang memiliki otak brilian dan berwawasan. 150 00:11:11,400 --> 00:11:15,200 Tapi karena kita punya banyak data, untuk diproses, 151 00:11:15,200 --> 00:11:17,400 dan komputer yang sangat cepat. 152 00:11:18,250 --> 00:11:21,280 Keajaibannya ada dalam data. Banyak sekali data... 153 00:11:21,610 --> 00:11:25,530 Data seperti ini belum pernah ada, dalam sejarah manusia. 154 00:11:26,490 --> 00:11:30,160 Kami membuat teknologi yang dapat menangkap... 155 00:11:30,500 --> 00:11:32,500 informasi dalam jumlah besar. 156 00:11:32,960 --> 00:11:36,750 Menurut Anda kalau smartphone dipasangkan gyroscope... 157 00:11:36,920 --> 00:11:39,630 accelerometer, fiingerprint, 158 00:11:39,720 --> 00:11:43,550 GPS, dalam foto yang Anda kirim ke Twitter. 159 00:11:43,840 --> 00:11:47,220 Kami menangkap, data yang sangat banyak sekali dalam satu individu. 160 00:11:47,560 --> 00:11:51,800 Mobil yang dikendarai, dan kamera yang ada di depan... 161 00:11:51,880 --> 00:11:54,650 Satelit saat ini, yang ukurannya sangat kecil... 162 00:11:54,650 --> 00:11:57,400 memantau makhluk hidup di planet ini. 163 00:11:57,480 --> 00:12:00,700 Pelampung yang ada di lautan, memantau iklim. 164 00:12:04,900 --> 00:12:06,500 NSA, 165 00:12:06,800 --> 00:12:11,250 CIA tinggal klik untuk mengetahui informasi politik suatu daerah. 166 00:12:12,500 --> 00:12:15,600 Dunia sedang berenang dalam data. 167 00:12:20,650 --> 00:12:22,300 Kembali ke 2012... 168 00:12:22,550 --> 00:12:25,800 IBM sudah menghitung, kalau rata-rata orang... 169 00:12:25,800 --> 00:12:30,600 sedikitnya, 500MB jejak digital setiap hari. 170 00:12:30,890 --> 00:12:33,050 Kalau Anda ingin mem-back up... 171 00:12:33,050 --> 00:12:36,150 keseluruhan data yang Anda hasilkan... 172 00:12:36,270 --> 00:12:41,400 lalu dicetak di kertas ukuran letter bolak-balik, ukuran font 12, 173 00:12:41,700 --> 00:12:43,600 lalu Anda tumpuk. 174 00:12:43,600 --> 00:12:47,400 Tingginya bisa melewati bumi menuju matahari. 175 00:12:47,620 --> 00:12:50,400 Empat kali lipatnya, hanya dalam sehari. 176 00:12:51,160 --> 00:12:53,650 Data itu sendiri tidaklah baik atau jahat, 177 00:12:53,650 --> 00:12:55,330 tapi tergantung Anda. 178 00:12:55,420 --> 00:12:58,200 Kami bergantung pada itikad baik setiap orang... 179 00:12:58,200 --> 00:13:00,700 dan kebijakan perusahaan. 180 00:13:01,050 --> 00:13:05,600 Tidak ada persyaratan legal, dalam kemunculan data tersebut. 181 00:13:06,180 --> 00:13:09,700 Itu yang menurut saya masalah besar supaya percaya. 182 00:13:11,100 --> 00:13:15,100 Kami sedang dalam lomba membuat mesin yang secerdas manusia. 183 00:13:15,600 --> 00:13:19,700 Google itu seperti Manhattan Project mengenai KB, 184 00:13:19,700 --> 00:13:22,230 ia punya banyak dana, banyak bakat... 185 00:13:22,500 --> 00:13:25,550 mereka membeli perusahaan kecil KB dan perusahaan robotik. 186 00:13:27,000 --> 00:13:30,900 Orang masih berpikiran Google itu mesin pencari. Ia juga provider emali... 187 00:13:30,900 --> 00:13:33,200 dan banyak lagi yang kita gunakan sehari-hari. 188 00:13:33,790 --> 00:13:36,000 Tapi, dibalik kotak pencariannya... 189 00:13:36,150 --> 00:13:38,800 ada 10 juta server. 190 00:13:39,540 --> 00:13:43,500 Makanya Google menjadi program komputer terkuat di dunia. 191 00:13:43,800 --> 00:13:46,900 Sekarang Google mengusahakan KB komputing, 192 00:13:46,900 --> 00:13:49,140 dan mereka akan buat 100 juta server. 193 00:13:52,150 --> 00:13:54,900 Saat berinteraksi dengan Google kita hanya melihat... 194 00:13:54,900 --> 00:13:58,500 benda seukuran kuku, yang merupakan raksasa buas kinerjanya... 195 00:13:58,730 --> 00:14:02,570 dan saya tidak yakin kalau Google tahu benda itu akan menjadi apa. 196 00:14:11,350 --> 00:14:15,080 Kalau kalian melihat, bagaimana algoritma digunakan di Google... 197 00:14:15,650 --> 00:14:18,200 teknologi ini lebih besar dari tahun '80. 198 00:14:20,000 --> 00:14:24,500 Jadi manual ini hanya diberitahu angka 1, 2, 3... 199 00:14:24,550 --> 00:14:26,550 dan tidak mempelajari berapa itu 1... 200 00:14:26,550 --> 00:14:29,640 atau berapa itu 2, tapi mempelajari bedanya apa antara 1, 2. 201 00:14:30,180 --> 00:14:31,600 Begitulah komputasi... 202 00:14:32,260 --> 00:14:35,400 Setengah dekade terakhir, kami memasukkan progres cepat ini... 203 00:14:35,400 --> 00:14:37,400 ke dalam pola yang disempurnakan. 204 00:14:38,140 --> 00:14:40,800 Bagusnya dari KB yang sudah lama disempurnakan... 205 00:14:41,110 --> 00:14:43,800 adalah saat kita ingin komputer... 206 00:14:43,900 --> 00:14:46,350 untuk bermain catur. 207 00:14:46,610 --> 00:14:50,700 Menurut paradigma lama, kita tinggal beritahu saja yang harus dilakukan. 208 00:14:54,250 --> 00:14:57,040 Ini adalah Jeopardy! 209 00:14:59,320 --> 00:15:01,790 Tantangan IBM. 210 00:15:02,850 --> 00:15:05,650 Saat ini belum ada yang berpikir kalau mesin... 211 00:15:05,650 --> 00:15:09,150 memiliki presisi, kepercayaan diri, dan kecepatan... 212 00:15:09,170 --> 00:15:11,300 untuk bermain Jeopardy melawan manusia terbaik. 213 00:15:11,800 --> 00:15:13,840 Mari kita main Jeopardy. 214 00:15:15,300 --> 00:15:18,350 Empat kata, besi yang menempel di tapak kuda? 215 00:15:18,640 --> 00:15:20,190 - Whatson? - 'patu? 216 00:15:20,190 --> 00:15:21,700 Anda benar, silakan pilih. 217 00:15:21,700 --> 00:15:24,700 Karakter APB senilai $800. 218 00:15:24,820 --> 00:15:26,990 Jawablah, Daily Double. 219 00:15:27,990 --> 00:15:31,410 Watson tahu, karena membaca Wikipedia... 220 00:15:31,490 --> 00:15:34,300 sebanyak 200 juta halaman, dalam bahasanya. 221 00:15:34,450 --> 00:15:37,660 Andi tidak bisa memrogram bagaimana dunia bergerak. 222 00:15:38,380 --> 00:15:40,500 Mesin belajarnya lewat membaca. 223 00:15:40,500 --> 00:15:41,950 Kembali ke Watson. 224 00:15:41,950 --> 00:15:43,210 Siapa Bram Stoker? 225 00:15:43,210 --> 00:15:45,210 Dan lihatlah hasilnya! 226 00:15:46,050 --> 00:15:48,960 Halo, $17.973. 227 00:15:48,960 --> 00:15:50,850 $41,413. 228 00:15:50,850 --> 00:15:53,100 Total dari kemarin $77... 229 00:15:53,100 --> 00:15:56,300 Watson sudah dilatih untuk membaca banyak teks. 230 00:15:56,510 --> 00:15:59,400 Tapi Anda tidak akan memahami bagaimananya. 231 00:15:59,640 --> 00:16:02,440 Ia tidak tahu air bisa membuat basah walau ia sentuh... 232 00:16:02,440 --> 00:16:05,310 dan tidak sama cara dia melihat dunia dengan kita. 233 00:16:06,020 --> 00:16:08,730 Bahasa KB saat ini, tidaklah... 234 00:16:08,900 --> 00:16:11,250 berdasarkan bagaimana dunia bergerak. 235 00:16:11,450 --> 00:16:15,100 Tapi hanya melihat kata yang muncul... 236 00:16:15,100 --> 00:16:17,100 mengenai konteks dalam kata lain. 237 00:16:18,120 --> 00:16:21,330 David Ferucci pengembang Watson. Lalu ada yang bertanya. 238 00:16:21,500 --> 00:16:23,000 "Apa Watson berpikir?" 239 00:16:23,370 --> 00:16:25,800 Lalu dia jawab, "Apa kapal selam menyelam?" 240 00:16:27,000 --> 00:16:29,800 Yang dia maksud adalah, dalam pembuatan kapal selam... 241 00:16:29,800 --> 00:16:32,250 ia pinjam prinsip dasar ikan berenang. 242 00:16:32,800 --> 00:16:37,300 Tapi kapal selam berenang lebih cepat, daripada ikan tercepat. 243 00:16:39,700 --> 00:16:42,110 Menangnya Watson dalam Jeopardy, adalah... 244 00:16:42,110 --> 00:16:44,940 tanda perkembangan signifikan dalam sejarah KB. 245 00:16:46,400 --> 00:16:49,000 Kita hanya terkesan, karena mesin itu hebat sekali. 246 00:16:49,000 --> 00:16:51,400 Saya lebih terkesan, karena komputer... 247 00:16:51,400 --> 00:16:54,070 mengalahkan manusia, dalam hal yang dikuasai manusia. 248 00:16:54,900 --> 00:16:56,750 Beginilah kami membuat progres. 249 00:16:57,910 --> 00:17:00,500 Di awal Google Brain Project... 250 00:17:00,500 --> 00:17:03,200 saya memberi tim saya instruksi sederhana, 251 00:17:03,400 --> 00:17:05,540 "Rakit jaringan neural yang terbesar, 252 00:17:05,540 --> 00:17:07,540 dari ribuan komputer. 253 00:17:08,000 --> 00:17:11,300 Jaringan neural merupakan simulasi bagaimana otak bekerja. 254 00:17:12,100 --> 00:17:14,130 Sangan probabilistik, tapi... 255 00:17:14,130 --> 00:17:16,130 sangat relevan dengan kontekstual. 256 00:17:16,700 --> 00:17:20,100 Di dalam otak terdapat neuron yang terhubung dengan ribuan neuron... 257 00:17:20,100 --> 00:17:22,350 dan terdapat jalur yang terbentuk... 258 00:17:22,350 --> 00:17:24,350 berdasarkan apa yang otak butuhkan. 259 00:17:24,600 --> 00:17:27,750 Ketika bayi mencoba dan berhasil, maka ada hadiah... 260 00:17:28,750 --> 00:17:31,750 dan jalur yang membantu suksesnya, mengeras. 261 00:17:32,200 --> 00:17:34,650 Kalau gagal, jalur tersebut melemah... 262 00:17:34,650 --> 00:17:38,400 jadi setrusnya, otak akan terasah supaya menguasai yang ada di sekitar. 263 00:17:40,350 --> 00:17:42,900 Apakah mesin mulai bisa belajar sendiri? 264 00:17:43,120 --> 00:17:44,370 Inikah maksud Deep Learning? 265 00:17:44,370 --> 00:17:47,120 Deep Learning dengan Jaringan Neural tidak jauh beda. 266 00:17:48,500 --> 00:17:49,900 Deep Learning... 267 00:17:50,450 --> 00:17:52,500 itu merupakan pendekatan yang beda. 268 00:17:52,500 --> 00:17:54,500 Komputer belajar seperti anak kecil. 269 00:17:55,150 --> 00:17:57,700 Semakin banyak data, dan akhirnya... 270 00:17:58,150 --> 00:17:59,900 semakin tahu bagaimana cara. 271 00:18:00,180 --> 00:18:02,700 Komputer akan semakin pintar dan pintar... 272 00:18:02,930 --> 00:18:04,640 dan semakin berpengalaman. 273 00:18:05,850 --> 00:18:09,350 Bayangkan saja, dalam jaringan neural terdapat ribuan komputer. 274 00:18:09,550 --> 00:18:11,300 Awalnya tidak bisa apa-apa... 275 00:18:11,300 --> 00:18:14,360 lalu kita buat ia menonton YouTube seminggu. 276 00:18:36,950 --> 00:18:39,470 Tanpa berhenti menonton dalam seminggu, apa yang terjadi? 277 00:18:39,760 --> 00:18:42,300 Kami berhipotesa ia akan mendeteksi... 278 00:18:42,300 --> 00:18:44,300 hal umum yang ada di video... 279 00:18:44,300 --> 00:18:47,750 dan kita tahu wajah orang sering muncul dalam video... 280 00:18:47,750 --> 00:18:51,440 jadi kita akan tahu kinerja neuron yang belajar mendeteksi wajah. 281 00:18:52,450 --> 00:18:55,310 Tinggalin gue sendiri! 282 00:18:55,900 --> 00:18:58,200 Lalu apa lagi yang sering muncul dalam video. 283 00:19:00,300 --> 00:19:03,110 Rasa terkesan kita itu adalah hasil neuron... 284 00:19:03,110 --> 00:19:04,530 saat mendetiksi kucing. 285 00:19:14,900 --> 00:19:16,920 Saya teringat saat "melihat untuk mengenal." 286 00:19:16,920 --> 00:19:19,800 "Wow, itu kucing. Oke, hebat sekali. 287 00:19:23,500 --> 00:19:26,100 Tidaklah berbahaya kalau Anda memikirkan masa depan. 288 00:19:26,100 --> 00:19:28,100 Sepertinya tidaklah berbahaya dan menakutkan. 289 00:19:29,550 --> 00:19:32,060 Tapi kami teori arsitektur yang akan... 290 00:19:32,100 --> 00:19:34,880 jauh melebihi kita dan membawa hasil yang besar. 291 00:19:34,880 --> 00:19:36,440 Dan itu tidak akan ramah dan bertele-tele. 292 00:19:37,350 --> 00:19:39,450 Saya rasa dalam lima tahun ke depan... 293 00:19:39,450 --> 00:19:41,450 kalian akan melihat sistem komputer... 294 00:19:41,450 --> 00:19:44,600 yang akan bisa belajar sendiri. 295 00:19:45,200 --> 00:19:48,830 Bagaimana ia memahami, bagaimana membuat pemahaman. 296 00:19:49,000 --> 00:19:51,400 Tidak seperti kinerja otak manusia. 297 00:19:54,050 --> 00:19:57,000 Apa pun nama menu makan siang ini, sangat lezat. 298 00:19:57,400 --> 00:19:59,850 Salah satu sintetis ciptaan Robby... 299 00:19:59,850 --> 00:20:01,550 Dia juru masak Anda? 300 00:20:01,680 --> 00:20:03,680 Walaupun dibuat dari logam mentah. 301 00:20:04,430 --> 00:20:05,850 Sini Robby. 302 00:20:06,680 --> 00:20:09,560 Akan kutunjukkan bagaimana cara kerjanya. 303 00:20:10,950 --> 00:20:14,550 Pertama masukkan sampel makanan ke celah ini. 304 00:20:15,300 --> 00:20:18,900 Di sini tempat bahan kimia tersimpan, untuk analisa... 305 00:20:18,900 --> 00:20:21,500 setelah itu ia bisa memproduksi ulang, molekul yang sama... 306 00:20:21,500 --> 00:20:23,200 dalam banyak bentuk dan jumlah. 307 00:20:23,200 --> 00:20:24,400 Seperti istri idaman saja. 308 00:20:25,700 --> 00:20:29,170 Lihat Baxter, kategori robot baru yang revolusioner... 309 00:20:29,170 --> 00:20:30,330 dengan akal sehat. 310 00:20:31,500 --> 00:20:35,450 Baxter adalah contoh bagus, dalam kompetisi mesin. 311 00:20:37,400 --> 00:20:39,340 Baxter dapat melakukan yang... 312 00:20:39,340 --> 00:20:40,670 tangan kita lakukan. 313 00:20:42,550 --> 00:20:47,180 Harga Baxter sama dengan harga buruh selama setahun. 314 00:20:47,470 --> 00:20:51,310 Satu Baxter tidak hanya mengurangi 1 buruh, tapi 3... 315 00:20:51,310 --> 00:20:54,200 karena ia tidak bisa lelah, tidak akan istirahat. 316 00:20:55,350 --> 00:20:59,320 Ini yang akan pertama kali kita lihat, dalam dunia kerja. 317 00:20:59,320 --> 00:21:02,320 Ia akan diluncurkan segera, secepatnya, murah, karena buatan mesin. 318 00:21:04,550 --> 00:21:08,830 Kemampuan kita untuk berlangsung sangat terbatas, dibanding mesin 319 00:21:10,000 --> 00:21:13,290 Saat ini sudah ada terobosan besar dalam Uber dan Lyft... 320 00:21:13,290 --> 00:21:17,540 yang membuat transportasi lebih murah, dan membebaskan kita dari transportasi. 321 00:21:17,850 --> 00:21:20,900 Langkah selanjutnya, akan banyak beredar mobil tanpa sopir... 322 00:21:21,000 --> 00:21:23,170 lalu sopir Uber dan Lyft harus mencari hal baru. 323 00:21:25,800 --> 00:21:29,640 Ada 4 juta supir profesional di United States... 324 00:21:29,640 --> 00:21:31,500 merekan akan segera menganggur. 325 00:21:31,500 --> 00:21:33,850 Tujuh juta orang yang bekerja menginput data... 326 00:21:33,850 --> 00:21:35,850 akan menjadi kehilangan pekerjaan. 327 00:21:37,190 --> 00:21:40,190 Pekerjaan itu bukan hanya karena uang, benar? 328 00:21:40,300 --> 00:21:43,250 Dalam level biologi, kerjaan itu pencarian tujuan hidup, 329 00:21:43,250 --> 00:21:45,250 lalu menjadi bakal definisi apa itu hidup. 330 00:21:45,250 --> 00:21:47,910 Ketika pekerjaan hilang, dalam sebuah masyarakat... 331 00:21:48,150 --> 00:21:50,620 tidak lama akan terjadi kekerasan. 332 00:22:00,050 --> 00:22:02,850 Kita ini berada dalam jurang pemisah antara yang kaya dan miskin... 333 00:22:02,850 --> 00:22:04,600 dan KB dan otomation akan menimbulkan... 334 00:22:04,600 --> 00:22:07,010 jurang yang lebih besar lagi antara yang punya dan tidak. 335 00:22:08,500 --> 00:22:11,970 Saat ini hanya ada pekerjaan untuk kelas menengah dam kerah putih. 336 00:22:12,720 --> 00:22:15,650 Watson dari IBM melakukan analisa bisnis mingguan. 337 00:22:15,650 --> 00:22:19,210 Yang dulu kita harus bayar $300 untuk mendatangkan analis bisnis. 338 00:22:20,480 --> 00:22:24,990 Hari ini, mahasiswa ingin menjadi dokter, akuntan dan jurnalis. 339 00:22:24,990 --> 00:22:28,450 Belum tentu, apa akan ada pekerjaan untuk Anda. 340 00:22:29,280 --> 00:22:32,550 Kalau ada seseorang berencana sebagai radiologis selama 40 tahun. 341 00:22:32,550 --> 00:22:34,240 Hanya membaca gambar. 342 00:22:34,240 --> 00:22:36,750 Saya rasa itu adalah tantangan, untuk lulusan baru saat ini. 343 00:22:56,100 --> 00:22:58,560 Hari ini kita akan membutuhkan bantuan robot. 344 00:22:59,520 --> 00:23:02,600 Robot Da Vinci saat ini sudah digunakan... 345 00:23:02,600 --> 00:23:04,750 oleh berbagai ahli bedah... 346 00:23:04,750 --> 00:23:07,940 karena akurasinya dan kemampuannya untuk... 347 00:23:07,940 --> 00:23:10,950 menghindari fluktuasi yang tidak diinginkan... 348 00:23:10,950 --> 00:23:12,950 yang biasa terjadi pada tangan manusia. 349 00:23:23,220 --> 00:23:26,550 Siapa pun yang melihat ini pasti akan mengetahui kehebatan alat ini. 350 00:23:30,720 --> 00:23:34,500 Dari lensa, Anda akan melihat tangan kecil... 351 00:23:34,510 --> 00:23:36,750 memegang ovarium wanita. 352 00:23:36,750 --> 00:23:41,390 Manusia sangat bergantung, dengan tangan robot ini. 353 00:23:42,500 --> 00:23:46,650 Orang-orang bilang kalau ini masa depan padahal ini bukan... 354 00:23:46,650 --> 00:23:48,230 ini adalah masa kini. 355 00:23:50,200 --> 00:23:52,280 Asal Anda tahu saja tentang robot bedah... 356 00:23:52,280 --> 00:23:55,080 kami masukkan banyak hal cerdas... 357 00:23:55,080 --> 00:23:58,290 seiring waktu kami masukkan hal yang lebih cerdas dalam sistemnya... 358 00:23:58,290 --> 00:24:02,200 robot bedah belajar dari setiap robot bedah lainnya... 359 00:24:02,200 --> 00:24:05,800 ia mempelajari apa yang harus dilakukan dan yang tidak... 360 00:24:05,800 --> 00:24:09,800 dan akhirnya robot karena rutin membedah akan bisa melakukan... 361 00:24:09,800 --> 00:24:11,800 pembedahan sendiri, 362 00:24:12,150 --> 00:24:14,180 atau di bawah pengawasan manusia. 363 00:24:14,430 --> 00:24:16,600 Biasanya saya menangani 150 kasus... 364 00:24:16,600 --> 00:24:18,600 masalah rektum sendirian. 365 00:24:18,600 --> 00:24:22,950 Dan sekarang, saya dibantu robot. 366 00:24:23,140 --> 00:24:26,150 Saya menangani kasus pembedahan selama setahun... 367 00:24:26,150 --> 00:24:28,320 saya merasa tidak nyaman. 368 00:24:28,320 --> 00:24:32,320 Tentu saya tidak nyaman, karena saya tidak suka membedah lagi. 369 00:24:35,050 --> 00:24:38,150 Karena kami terus mengembangkan dan menciptakannya... 370 00:24:38,150 --> 00:24:42,350 kami menjadi seperti budak teknologi. 371 00:24:42,800 --> 00:24:45,500 Tapi kita tidak bisa kembali. 372 00:24:50,250 --> 00:24:52,760 Mesin semakin membutuhkan byte yang lebih besar... 373 00:24:52,760 --> 00:24:57,010 diluar keahlian kita, dalam hal meningkatkan keahlian. 374 00:24:57,010 --> 00:25:00,560 Kita harus berlari lebih cepat lagi supaya tetap di atas mesin. 375 00:25:02,550 --> 00:25:05,300 - Bagaimana penampilanku? - Cakap. 376 00:25:09,850 --> 00:25:13,600 - Kau tertarik denganku? - Apa? 377 00:25:14,050 --> 00:25:16,350 Tubuhmu menandakan ya. 378 00:25:18,100 --> 00:25:19,400 - Benarkah? - Ya. 379 00:25:20,450 --> 00:25:22,450 Inilah arah masa depan kita... 380 00:25:22,450 --> 00:25:25,750 Kita ingin mendesain teman kita. 381 00:25:26,450 --> 00:25:29,130 Kita ingin wajah yang memanjakan mata. 382 00:25:29,130 --> 00:25:33,850 Karena ia mudah memain-mainkan emosi kita. 383 00:25:34,050 --> 00:25:37,600 Kita tidaklah rumit, cuma butuh rangsangan. 384 00:25:38,000 --> 00:25:40,600 Saya bisa mengubah Anda seperti saya hanya dengan banyak senyum. 385 00:25:42,900 --> 00:25:45,480 KB akan luar biasa sekali dalam memanipulasi kita. 386 00:25:54,600 --> 00:25:57,780 Anda mengembangkan teknologi yang... 387 00:25:57,780 --> 00:25:59,950 dapat merasakan perasaan manusia. 388 00:25:59,950 --> 00:26:03,250 Kami mengembangkan teknologi yang membaca ekspresi wajah... 389 00:26:03,250 --> 00:26:06,080 dan memetakan semuanya ke setiap keadaan emosi. 390 00:26:06,350 --> 00:26:08,250 Lima belas tahun lalu, saya... 391 00:26:08,260 --> 00:26:11,300 menyelesaikan S1 di Ilmu Komputer, 392 00:26:11,300 --> 00:26:14,850 dan saya sadar kalau saya banyak menghabiskan waktu... 393 00:26:14,850 --> 00:26:17,550 berinteraksi dengan laptop dan gawai saya. 394 00:26:17,550 --> 00:26:21,800 Padahal gawai ini tidaklah tahu bagaimana perasaan saya. 395 00:26:23,400 --> 00:26:26,650 Saya mulai berpikir, bagaimana kalau gawai ini bisa merasakan... 396 00:26:26,650 --> 00:26:28,810 kalau saya sedang stres dan mengalami hari yang buruk. 397 00:26:29,150 --> 00:26:31,150 apa yang akan terjadi. 398 00:26:32,400 --> 00:26:35,450 Hai anak-anak, bagaimana kabarnya? 399 00:26:35,750 --> 00:26:37,000 Saya boleh memeluk? 400 00:26:37,700 --> 00:26:40,550 Kami buat anak-anak interaksi dengan teknologi... 401 00:26:40,550 --> 00:26:42,600 Masih banyak yang perlu dikembangkan. 402 00:26:42,600 --> 00:26:44,300 Semuanya sangan mengagumkan. 403 00:26:44,300 --> 00:26:46,700 - Siapa yang suka robot? - Aku! 404 00:26:46,700 --> 00:26:48,500 Siapa yang mau punya robot di rumah? 405 00:26:48,500 --> 00:26:50,500 Mau kalian mau apakan? 406 00:26:51,210 --> 00:26:53,300 Aku ingin menggunakannya untuk... 407 00:26:53,300 --> 00:26:56,000 memberi mama soal MTK yang sulit. 408 00:26:56,000 --> 00:26:58,840 - Oke, bagaimana denganmu Theo? - Aku akan... 409 00:26:59,430 --> 00:27:02,100 menggunakannya untuk menakuti orang. 410 00:27:02,220 --> 00:27:04,390 Baiklah sekarang mulai dari senyum. 411 00:27:05,270 --> 00:27:05,890 Bagus. 412 00:27:06,450 --> 00:27:08,000 Cemberut. 413 00:27:08,700 --> 00:27:09,480 Bagus. 414 00:27:09,480 --> 00:27:10,950 Alisnya diangkat. 415 00:27:10,950 --> 00:27:14,940 Teknologi ini selalu berada di sekitar mereka. 416 00:27:15,320 --> 00:27:17,690 Mereka berharap punya robot di rumah... 417 00:27:17,690 --> 00:27:21,000 dan mereka juga berharap robotnya pandai bersosialisasi. 418 00:27:22,120 --> 00:27:25,070 Apa yang membuat robot pintar? 419 00:27:25,310 --> 00:27:28,800 Suruh mereka ikut kelas MTK atau Biologi. 420 00:27:29,550 --> 00:27:32,000 Kupikir ia harus dilatih. 421 00:27:32,000 --> 00:27:34,900 Baiklah, semua ke sini. 422 00:27:35,100 --> 00:27:39,220 Kalau kalian senyum, robot ini akan mendekati kalian. 423 00:27:39,220 --> 00:27:42,930 Ia mendekat, ia mendekat, lihat. 424 00:27:42,930 --> 00:27:45,100 Kalau kalian marah, robotnya lari. 425 00:27:45,220 --> 00:27:46,350 Robotnya lari! 426 00:27:46,350 --> 00:27:48,350 - Oh, Bagus sekali. - Hebat! 427 00:27:49,020 --> 00:27:52,350 Kami latih komputer supaya membaca dan mengenal emosi. 428 00:27:52,520 --> 00:27:54,520 Siap, sedia, mulai! 429 00:27:54,850 --> 00:27:57,300 Sejauh ini responnya sangat mengagumkan. 430 00:27:57,300 --> 00:27:59,500 Orang-orang mengintegrasikan ini ke aplikasi kesehatan, 431 00:27:59,500 --> 00:28:01,650 aplikasi meditasi, robot, 432 00:28:01,650 --> 00:28:03,160 mobil. 433 00:28:04,450 --> 00:28:06,800 Kita akan melihat bagaimana hasilnya. 434 00:28:06,800 --> 00:28:08,800 Pergi sana! 435 00:28:09,300 --> 00:28:11,410 Robot bisa dipasang KB. 436 00:28:11,410 --> 00:28:14,200 Robot adalah wujud fisiknya... 437 00:28:14,200 --> 00:28:16,200 dan KB adalah otaknya. 438 00:28:16,630 --> 00:28:19,850 Otaknya terbentuk dalam sistem yang berbasis software. 439 00:28:19,850 --> 00:28:21,800 Yang tentunya tidak memiliki wujud fisik. 440 00:28:22,350 --> 00:28:25,010 Robot bisa ada tanpa KB. 441 00:28:25,010 --> 00:28:27,010 Sudah ada banyak sekali. 442 00:28:27,970 --> 00:28:31,550 Tapi robot dumb bisa cerdas dalam semalam. 443 00:28:31,550 --> 00:28:33,980 Kalau dipasang software dan sensor yang tepat. 444 00:28:35,250 --> 00:28:38,400 TIdak banyak, kecuali hanya memasukkan gerakan ke objek yang tidak bergerak. 445 00:28:38,520 --> 00:28:40,150 Terhadap mesin, tidak ada bedanya dengan... 446 00:28:40,150 --> 00:28:43,150 membesarkan anak, atau surogate. 447 00:28:45,400 --> 00:28:47,990 Dan, akan kami tanggung resikonya. 448 00:29:08,600 --> 00:29:11,140 Oke, selamat datang di ATR. 449 00:29:18,800 --> 00:29:21,850 Tujuan utama saya adalah membuat robot humanoid yang... 450 00:29:21,850 --> 00:29:24,860 memiliki niat dan hasrat seperti manusia. 451 00:29:36,000 --> 00:29:39,000 Robot ini diberi nama Erika. 452 00:29:39,540 --> 00:29:44,400 Erika adalah robot humanoid yang paling maju di dunia, yang saya lihat. 453 00:29:44,850 --> 00:29:47,510 Hei Erika, coba menengok ke sini. 454 00:29:54,450 --> 00:29:57,690 Robot bisa menjadi partner yang terbaik... 455 00:29:57,690 --> 00:30:01,150 khususnya untuk lansia, anak-anak... 456 00:30:01,150 --> 00:30:03,150 orang-orang cacat. 457 00:30:03,330 --> 00:30:06,750 Saat kita bicara dengan robot, kita tidak punya batasan sosial... 458 00:30:06,750 --> 00:30:08,750 yang membatasi kita. 459 00:30:09,160 --> 00:30:12,700 Akhirnya, semua orang akan menerima... 460 00:30:12,700 --> 00:30:16,400 Android sebagai teman kita atau partner. 461 00:30:16,960 --> 00:30:19,250 Kami hanya berdasarkan keinginan sederhana... 462 00:30:19,250 --> 00:30:23,960 dan Erika ingin dikenal, dan mengerjakan sisanya. 463 00:30:29,250 --> 00:30:33,150 Kalau robot memiliki keinginan, berarti robot bisa mengerti... 464 00:30:33,150 --> 00:30:35,850 keinginan orang lain. 465 00:30:44,050 --> 00:30:46,350 Ini contoh, hubungan robot dengan orang... 466 00:30:46,350 --> 00:30:49,410 dan menandakan kalau kami dekat, 467 00:30:49,410 --> 00:30:53,410 Itu tandanya, kami bisa saling menyentuh. 468 00:30:56,830 --> 00:31:00,920 Dalam membuat KB intinya adalah replika dari kita. 469 00:31:02,820 --> 00:31:05,150 Saya pikir, kuncinya akan ditemukan... 470 00:31:05,150 --> 00:31:07,880 ketika semua indera sudah direplika. 471 00:31:09,300 --> 00:31:10,880 Penglihatan, 472 00:31:10,880 --> 00:31:12,880 Peraba, 473 00:31:12,880 --> 00:31:14,470 Penciuman, 474 00:31:14,470 --> 00:31:17,560 ketika sudah direplika semua itu, maka muncul yang hidup. 475 00:31:27,450 --> 00:31:30,950 Mesin-mesin yang sudah dibuat, hanyalah untuk mengerti kita... 476 00:31:32,900 --> 00:31:35,480 Bagaimana kalau makhluk berbadan besi ini, bisa... 477 00:31:35,480 --> 00:31:37,300 mengubah loyalitasnya, 478 00:31:37,300 --> 00:31:38,870 mengubah keberaniannya, 479 00:31:38,870 --> 00:31:39,970 mengubah egonya, 480 00:31:39,970 --> 00:31:41,970 mengubah instingnya? 481 00:31:44,950 --> 00:31:48,300 Orang awam tidak akan berpikiran kalau robot pembunuh itu ada. 482 00:31:48,300 --> 00:31:50,840 Pasti mereka akan bilang, "Gak mungkin lah yaw." 483 00:31:50,840 --> 00:31:54,600 Astaga, kami usahakan, tidak ada robot pembunuh. 484 00:31:56,850 --> 00:31:59,270 Kalau sampai ada, berarti sudah terlambat. 485 00:32:05,050 --> 00:32:09,150 Yang membuat saya kepikiran, sampai tidak bisa tidur adalah... 486 00:32:09,780 --> 00:32:12,080 Pengembangan senjata otomatis. 487 00:32:27,850 --> 00:32:31,880 Sampai saat ini, orang-orang khawatir dengan drone. 488 00:32:32,600 --> 00:32:34,700 Seperti contohnya pesawat kendali remot. 489 00:32:39,650 --> 00:32:43,020 Kalau kamera Drone ditambah dengan fitur KB... 490 00:32:43,020 --> 00:32:45,500 merupakan sebuah batu loncatan... 491 00:32:45,500 --> 00:32:48,750 untuk menjadi senjata autonomous, yang akan memilih targetnya sendiri... 492 00:32:48,750 --> 00:32:51,570 lalu ia bisa meluncurkan misilnya sendiri. 493 00:33:12,550 --> 00:33:14,840 Jadi, perkiraan kehidupan manusia... 494 00:33:14,840 --> 00:33:18,400 kalau ada dalam pertempuran itu, hanya akan bertahan beberapa detik. 495 00:33:20,400 --> 00:33:23,550 Dalam satu sudut, drone hanyalah fiksi ilmiah... 496 00:33:23,550 --> 00:33:27,050 tapi saat ini, drone menjadi senjata yang lumrah dalam perang. 497 00:33:28,750 --> 00:33:32,600 Sepuluh ribu lebih, dalam gudang senjata di US sendiri. 498 00:33:33,350 --> 00:33:37,750 Tapi bukan hanya US, beberapa negara sudah mengoperasikan itu. 499 00:33:38,850 --> 00:33:40,550 Pasti ada alasannya... 500 00:33:40,550 --> 00:33:44,250 Buktinya mereka berani, membuat sesuatu yang paling penting dan sulit di dunia. 501 00:33:44,450 --> 00:33:47,470 Dan KB akan diimplementasikan secepatnya. 502 00:33:50,650 --> 00:33:53,550 Angkatan Udara, telah mendesain $400 miliyar program jet... 503 00:33:53,550 --> 00:33:55,550 dan mengirim pilot ke udara. 504 00:33:56,130 --> 00:33:58,400 Dan hanya $400 untuk KB... 505 00:33:58,400 --> 00:34:01,100 yang didesain oleh beberapa mahasiswa yang baru lulus... 506 00:34:01,100 --> 00:34:03,270 bisa mengalahkan pilot manusia terbaik. 507 00:34:03,270 --> 00:34:05,560 Hanya dengan algoritma sederhana. 508 00:34:09,300 --> 00:34:13,000 KB akan membuat perubahan besar dalam kemiliteran. 509 00:34:13,320 --> 00:34:16,320 Seperti mesin dengan ruang bakar, telah mengubah zaman. 510 00:34:17,550 --> 00:34:21,050 KB akan ada di setiap hal, yang ada di kemiliteran. 511 00:34:21,050 --> 00:34:24,660 Dari konvoi tanpa sopir yang mengirim suplai logistik, 512 00:34:25,200 --> 00:34:28,500 lalu drone tanpa pilot yang mengirim suplai obat-obatan, 513 00:34:28,500 --> 00:34:30,650 lalu propaganda dalam komputer... 514 00:34:30,650 --> 00:34:33,050 untuk mengambil hati dan pikiran masyarakat. 515 00:34:34,050 --> 00:34:36,110 Inilah salah satu alasan KB... 516 00:34:36,110 --> 00:34:38,250 dan siapa pun yang memiliki KB terbaik... 517 00:34:38,250 --> 00:34:40,900 mungkin akan memegang dominasi di planet ini. 518 00:34:45,410 --> 00:34:49,230 Ada sebuah pendapat, di awal abad 21 seluruh umat manusia akan... 519 00:34:49,230 --> 00:34:51,000 bersatu karena sebuah keberhasilan. 520 00:34:51,000 --> 00:34:55,100 Kita mengagumi kehebatan kita karena telah melahirkan... 521 00:34:55,300 --> 00:34:57,360 - KB. - KB? 522 00:34:58,800 --> 00:35:00,350 Maksudmu Kecerdasan Buatan? 523 00:35:00,350 --> 00:35:04,870 Kesadaran singular yang bangkit, dalam seluruh ras mesin. 524 00:35:05,800 --> 00:35:09,120 Kita tidak tahu siapa yang menyerang duluan. Kita atau mereka? 525 00:35:09,550 --> 00:35:12,600 Dan kitalah yang telah menghanguskan langit. 526 00:35:14,850 --> 00:35:16,540 Fiksi ilmiah memiliki sejarah... 527 00:35:16,540 --> 00:35:19,800 yang tidak hanya memprediksi masa depan, tapi membentuk masa depan. 528 00:35:26,650 --> 00:35:31,540 Tulisan Arthur Conan Doyle sebelum PD 1, memperingatkan... 529 00:35:31,540 --> 00:35:36,650 kalau kapal selam, akan digunakan untuk menyingkirkan blokade warga sipil. 530 00:35:37,850 --> 00:35:40,250 Pada saat karyanya terbit... 531 00:35:40,250 --> 00:35:43,300 para Angkatan Laut menertawakan Arthur Conan Doyle... 532 00:35:43,300 --> 00:35:46,040 karena idenya yang absurd, kalau kapal selam... 533 00:35:46,040 --> 00:35:48,370 bisa sangat berguna dalam perang. 534 00:35:53,750 --> 00:35:55,950 Yang dapat dilihat dari sejarah ialah... 535 00:35:55,950 --> 00:35:59,740 sikap kita terhadap teknologi, juga etika... 536 00:35:59,740 --> 00:36:01,740 sangat tergantung pada konteks. 537 00:36:01,740 --> 00:36:04,740 Contohnya kapal selam, negara seperti... 538 00:36:04,740 --> 00:36:07,700 Britania Raya dan United States ketakutan... 539 00:36:07,700 --> 00:36:09,180 menggunakan kapal selam. 540 00:36:09,700 --> 00:36:13,060 Hanya karena Jerman menggunakan kapal selam untuk menyerang... 541 00:36:13,060 --> 00:36:16,700 United States menjadikan itu sebagai alasan ikut PD 1. 542 00:36:18,600 --> 00:36:20,800 Majukan waktunya. 543 00:36:20,800 --> 00:36:25,350 USA tiba-tiba dan tanpa sebab diserang... 544 00:36:25,350 --> 00:36:27,950 oleh negara Kekaisaran Jepang. 545 00:36:28,290 --> 00:36:30,290 Lima jam setelah Pearl Harbor... 546 00:36:30,870 --> 00:36:35,000 langsung ditetapkan perintah, supaya kapal selam bebas menyerbu... 547 00:36:35,000 --> 00:36:36,800 melawan pihak Jepang. 548 00:36:39,750 --> 00:36:42,450 Oleh karena itu Arthur Conan Doyle benar. 549 00:36:44,150 --> 00:36:46,720 Itulah kehebatan fiksi ilmiah. 550 00:36:46,720 --> 00:36:48,900 Kebohongan yang mengatakan kebenaran. 551 00:36:48,900 --> 00:36:52,230 Para eksekutif, dengan bangga saya perkenalkan... 552 00:36:52,230 --> 00:36:54,600 penegak hukum dari masa depan. 553 00:36:54,600 --> 00:36:56,600 ED-209. 554 00:37:03,650 --> 00:37:05,800 Ini bukanlah pertanyaan fiksi ilmiah, 555 00:37:05,800 --> 00:37:09,290 tapi apa berikutnya, apa yang akan terjadi sekarang. 556 00:37:13,800 --> 00:37:17,250 Peran sistem Kecerdasan berkembang sangat pesat... 557 00:37:17,250 --> 00:37:18,840 mengenai masalah perang. 558 00:37:19,200 --> 00:37:22,350 Khalayak berlomba demi dunia tanpa manusia. 559 00:37:26,350 --> 00:37:29,600 Saat ini, keamanan negara dengan jelas melarang... 560 00:37:29,600 --> 00:37:32,180 menciptakan kendaraan bersenjata penuh autonomous. 561 00:37:32,600 --> 00:37:35,900 Tidak semua orang memegang nilai tersebut. 562 00:37:35,900 --> 00:37:39,600 Saat Cina dan Rusia mulai mengembangkan kendaraan... 563 00:37:39,940 --> 00:37:42,070 autonomous yang dapat menyerang dan membunuh. 564 00:37:43,070 --> 00:37:45,450 Apa yang harus kita lakukan? 565 00:37:49,950 --> 00:37:52,450 Kita tidak bisa asal membuat senjata autonomous... 566 00:37:52,450 --> 00:37:55,000 demi dominasi militer kita, tapi tidak ada orang pun... 567 00:37:55,000 --> 00:37:56,040 yang menggunakan itu. 568 00:37:56,670 --> 00:37:59,900 Kalau senjata ini diciptakan, pasti digunakan untuk menyerang... 569 00:38:00,420 --> 00:38:03,000 populasi manusia dalam jumlah besar. 570 00:38:12,450 --> 00:38:13,840 Senjata autonomous itu... 571 00:38:13,840 --> 00:38:15,840 sudah sejatinya menjadi senjata pemusnah massal... 572 00:38:15,840 --> 00:38:19,650 karena tidak memerlukan manusia supaya terarah atau ditempatkan. 573 00:38:19,650 --> 00:38:21,850 Hanya butuh satu orang... 574 00:38:21,850 --> 00:38:23,980 untuk menulis programnya. 575 00:38:25,650 --> 00:38:27,400 Itulah yang menjadi... 576 00:38:27,400 --> 00:38:30,000 kerumitan dalam bidang ini, 577 00:38:30,000 --> 00:38:34,000 karena ini keren, penting, mengagumkan... 578 00:38:34,350 --> 00:38:38,170 tapi juga menakutkan. Ini semua masalah kepercayaan. 579 00:38:41,950 --> 00:38:44,500 Ini surat terbuka untuk KB... 580 00:38:44,500 --> 00:38:47,100 ditanda tangani oleh banyak saintis ternama. 581 00:38:47,100 --> 00:38:50,590 Apa yang mereka inginkan? Ban penggunaan senjata autonomous. 582 00:38:50,590 --> 00:38:52,200 Penulis menyatakan, 583 00:38:52,200 --> 00:38:56,650 "Senjata autonomous adalah revolusi ketiga perang." 584 00:38:56,650 --> 00:38:59,060 Ribuan spesialis KB bersuara, 585 00:38:59,060 --> 00:39:01,650 supaya dilarang semua robot pembunuh. 586 00:39:02,190 --> 00:39:04,190 Surat terbuka ini, sebenarnya mengatakan, 587 00:39:04,190 --> 00:39:05,780 supaya kami mengubah tujuan kami... 588 00:39:06,200 --> 00:39:07,780 dalam lingkup KB. 589 00:39:07,780 --> 00:39:11,550 Supaya tidak membuat Kecerdasan yang tidak terarah... 590 00:39:11,550 --> 00:39:13,550 menjadi Kecerdasan yang menguntungkan. 591 00:39:13,550 --> 00:39:15,940 Pengembangan KB tidak akan berhenti... 592 00:39:15,940 --> 00:39:17,940 akan terus berlanjut, dan berkembang. 593 00:39:17,940 --> 00:39:21,900 Kalau lembaga Internasional tidak membuat aturan tentang ini... 594 00:39:21,900 --> 00:39:24,520 orang akan menciptakan sesuatu yang bisa melakukan apa saja. 595 00:39:24,520 --> 00:39:27,470 Dalam surat tertulis, dalam tahun yang akan datang, bukan dekade... 596 00:39:27,470 --> 00:39:29,600 senjata ini akan tersebar. 597 00:39:29,600 --> 00:39:32,430 Terdapat 6.000 tanda tangan, dalam surat itu. 598 00:39:32,430 --> 00:39:35,000 Banyak dari mereka ahli dalam bidang ini. 599 00:39:36,900 --> 00:39:39,850 Saya sering dikunjungi oleh perwira tinggi... 600 00:39:39,850 --> 00:39:43,900 yang menekankan, kalau dominasi militer Amerika itu penting. 601 00:39:44,600 --> 00:39:49,200 Dan senjata autonomous mungkin bagian dari rencana Departemen Pertahanan. 602 00:39:49,900 --> 00:39:52,570 Sangat menakutkan, karena nilai sistem dari... 603 00:39:52,570 --> 00:39:57,620 Pengembangan Teknologi Militer itu tidak sama dengan nilai sistem Kemanusiaan. 604 00:40:00,650 --> 00:40:04,590 Diluar dari kemungkinan kalau teknologi ini dapat... 605 00:40:04,590 --> 00:40:06,500 mengancam eksistensi manusia. 606 00:40:06,500 --> 00:40:09,750 Banyak teknologis mendanai Future of Life Institute... 607 00:40:09,750 --> 00:40:12,000 untuk menangani masalah ini. 608 00:40:12,970 --> 00:40:18,060 Semua orang ini merahasiakannya, menarik bagi saya melihat mereka berkumpul. 609 00:40:20,900 --> 00:40:24,000 Yang kita dapati adalah, hasil karena kecerdasan kita, 610 00:40:24,000 --> 00:40:26,270 bukan karena taring kita, 611 00:40:26,270 --> 00:40:28,270 atau kuku tajam kita, 612 00:40:28,270 --> 00:40:32,070 atau otot kita yang besar, melainkan karena otak kita. 613 00:40:32,400 --> 00:40:34,490 di masa angkatan saya... 614 00:40:34,490 --> 00:40:38,850 kami pernah membuat pergerakan "Holy Cow"... 615 00:40:38,850 --> 00:40:41,830 karena teknologi berkembang cepat... 616 00:40:42,120 --> 00:40:43,500 daripada yang kita bayangkan. 617 00:40:44,600 --> 00:40:49,700 Saya duduk bersama dengan seluruh orang-orang tercerdas di dunia. 618 00:40:49,920 --> 00:40:51,920 yang membuat saya bingung adalah... 619 00:40:51,920 --> 00:40:54,900 mungkin otak manusia, tidak dapat untuk... 620 00:40:54,900 --> 00:40:58,500 memahami seutuhnya kompleksitas dunia yang kita hadapi. 621 00:40:59,600 --> 00:41:04,060 Seiring kita membangun, jalan KB hingga mencapai puncaknya... 622 00:41:04,690 --> 00:41:06,770 kita harus mengubah haluan. 623 00:41:06,770 --> 00:41:10,530 Sehingga kita tidak menjatuhkan umat manusia dari puncaknya. 624 00:41:13,600 --> 00:41:16,400 Google membeli Deep Mind, beberapa tahun lalu 625 00:41:17,750 --> 00:41:21,350 DeepMind beroperasi sebagai pengganti semi-independennya Google. 626 00:41:22,550 --> 00:41:25,880 Yang membuat DeepMind unik adalah... 627 00:41:25,880 --> 00:41:29,900 ia hanya berfokus menciptakan super-intelegensia digital... 628 00:41:30,100 --> 00:41:33,950 KB yang lebih pintar dari manusia terpintar di dunia. 629 00:41:33,950 --> 00:41:36,470 Lebih pintar dari seluruh manusia kalau digabung. 630 00:41:37,100 --> 00:41:40,400 Ini gambaran dari sistem yang dijalankan oleh DeepMind. 631 00:41:40,560 --> 00:41:43,750 Anggap ini adalah bayi yang baru lahir, 632 00:41:43,750 --> 00:41:46,310 lalu langsung dijejali permainan Atari. 633 00:41:46,760 --> 00:41:49,150 Maka ia pelajari permainan tersebut. 634 00:41:50,350 --> 00:41:52,900 Padahal ia tidak tahu apa itu objek, 635 00:41:52,900 --> 00:41:55,030 apa itu gerakan, apa itu waktu. 636 00:41:57,400 --> 00:42:00,900 Yang ia tahu hanya gambar dan skor. 637 00:42:02,500 --> 00:42:06,300 Jadi anggap ini adalah bayi yang baru lahir... 638 00:42:06,300 --> 00:42:11,300 sampai siang memainkan permainan Atari yang beda-beda... 639 00:42:11,320 --> 00:42:14,700 dalam tingkat manusia super, kalian pasti akan ketakutan. 640 00:42:15,200 --> 00:42:18,200 Kalian pasti mengira, "Mungkin bayi ini kerasukan, balikin." 641 00:42:18,890 --> 00:42:21,390 Sistem DeepMind dapat memenangkan semua permainan. 642 00:42:23,500 --> 00:42:26,190 Ia dapat menyelesaikan semua permainan Atari. 643 00:42:27,550 --> 00:42:31,440 Ia adalah manusia super, ia selesaikan cepat sekali, kurang dari semenit. 644 00:42:36,900 --> 00:42:40,370 DeepMind mengubah situasi, dan situasi itu pada permainan Go. 645 00:42:40,370 --> 00:42:43,950 Permainan yang dikatakan melampaui... 646 00:42:43,950 --> 00:42:47,550 kemampuan komputer, melawan orang terbaik dalam permainan Go. 647 00:42:48,120 --> 00:42:50,900 Pertama, ia menantang juara Go dari Eropa. 648 00:42:53,030 --> 00:42:55,700 Lalu itu juara Go dari Korea. 649 00:42:57,670 --> 00:43:01,750 Ternyata ia bisa menangkan keduanya, dan selalu menyerang. 650 00:43:02,910 --> 00:43:06,890 Baca saja artikel di New York Times yang mengatakan bagimana permainan Go... 651 00:43:06,890 --> 00:43:08,940 butuh waktu 100 tahun, untuk dikuasai. 652 00:43:10,050 --> 00:43:13,230 Orang-orang berpikiran kalau itu hanya permainan papan. 653 00:43:13,450 --> 00:43:14,900 Poker itu seni. 654 00:43:14,900 --> 00:43:17,600 Main poker harus membaca orang, main poker harus bohong, 655 00:43:17,600 --> 00:43:20,500 tidak boleh berlagak, itulah yang komputer... 656 00:43:20,500 --> 00:43:22,600 tidak akan menangkan. 657 00:43:22,600 --> 00:43:24,600 Langsung didatangkan 7 pemain terbaik... 658 00:43:24,600 --> 00:43:29,500 dan butuh 7 hari, untuk membantai manusia. 659 00:43:30,600 --> 00:43:33,670 Jadi pemain poker terbaik, pemain Go terbaik. 660 00:43:33,670 --> 00:43:37,300 Dan polanya itu kalau KB membutuhkan waktu... 661 00:43:37,300 --> 00:43:40,000 untuk menguasai itu semua. 662 00:43:40,260 --> 00:43:43,000 Kalau sudah berhasil, menguasai itu. 663 00:43:43,000 --> 00:43:44,680 Ia tidak dapat dihentikan. 664 00:43:51,850 --> 00:43:56,680 KB DeepMind, memiliki akses tingkat admin, ke server Google. 665 00:43:57,000 --> 00:43:59,530 Untuk mengoptimalkan penggunaan daya di pusat data. 666 00:44:00,600 --> 00:44:04,450 Bisa saja, ia terserang Trojan Horse. 667 00:44:04,700 --> 00:44:07,200 DeepMind memiliki kendali penuh di pusat data, 668 00:44:07,200 --> 00:44:08,840 jadi dengan sedikit update software... 669 00:44:08,840 --> 00:44:12,040 KB bisa menguasai seluruh sistem Google. 670 00:44:12,040 --> 00:44:16,000 Artinya ia bisa melakukan segalanya, mengetahui Data Anda. Semuanya. 671 00:44:20,550 --> 00:44:22,950 Kita menuju masa super-cerdas digital... 672 00:44:22,950 --> 00:44:25,700 yang melampaui manusia. Sudah jelas. 673 00:44:26,200 --> 00:44:29,680 Masalahnya adalah, ketika kita mencapai kecerdasan level manusia, 674 00:44:29,680 --> 00:44:31,680 "Oke, hentikan risetnya." 675 00:44:32,950 --> 00:44:36,350 Saat melampaui kecerdasan manusia dan disebut kecerdasan super... 676 00:44:36,350 --> 00:44:37,610 intinya lebih cerdas dari kita. 677 00:44:39,300 --> 00:44:44,200 KB dalam level manusia super, kalau sampai sukses kita akan... 678 00:44:44,200 --> 00:44:48,410 menjadi penemuan terkuat yang pernah diciptakan manusia, dan yang terakhir. 679 00:44:50,150 --> 00:44:52,500 Karena kita menciptakan KB lebih cerdas dari kita... 680 00:44:53,040 --> 00:44:57,290 kita akan menutup kemungkinan agar tidak dikuasai mereka. 681 00:45:01,000 --> 00:45:04,930 Kita ambil contoh seperti menyembuhkan kanker, Anda akan tahu... 682 00:45:04,930 --> 00:45:08,600 dalam menyembuhkan kanker banyak sekali konflik... 683 00:45:08,600 --> 00:45:10,600 dengan banyak hal yang Anda cintai. 684 00:45:12,250 --> 00:45:15,270 KB tidak perlu jahat untuk menghancurkan umat manusia. 685 00:45:16,500 --> 00:45:20,470 Kalau KB memiliki tujuan, dan manusia menghalangi... 686 00:45:20,480 --> 00:45:22,780 maka menghancurkan manusia baginya adalah keharusan, 687 00:45:22,780 --> 00:45:24,940 tanpa perlu ia pikirkan atau rasa keberatan. 688 00:45:24,940 --> 00:45:26,990 Seperti kalau kita membangun jalan... 689 00:45:26,990 --> 00:45:29,530 lalu ada rumah semut menghalangi, 690 00:45:29,530 --> 00:45:32,900 kita tidak membenci semut, tapi kita sedang membuat jalan. 691 00:45:32,900 --> 00:45:34,900 kita hancurkan begitu saja. 692 00:45:37,810 --> 00:45:41,520 Tidak mudah melepaskan perhatian semacam ini... 693 00:45:41,520 --> 00:45:45,050 sesuatu yang akan terjadi dalam beberapa dekade atau ratusan tahun lagi. 694 00:45:45,050 --> 00:45:47,400 Tapi kenapa bisa membuat kita khawatir? 695 00:45:47,400 --> 00:45:50,490 Kalau kita kembali ke 11 September 1933, 696 00:45:50,490 --> 00:45:54,490 Ernest Rutherford adalah fisikawan nuklir terbesar pada zamannya... 697 00:45:54,640 --> 00:45:58,580 berkata,"Kemungkinan mengekstrak energi yang berguna... 698 00:45:58,580 --> 00:46:02,150 dari transmutasi Atom sama dengan ledakan bulan." 699 00:46:02,950 --> 00:46:06,320 Esok paginya, Leo Szilard, seorang fisikawan yang lebih muda... 700 00:46:06,320 --> 00:46:09,700 membaca ini lalu merasa jengkel, lalu dia menemukan... 701 00:46:09,700 --> 00:46:14,120 cara membuat reaksi nuklir berantai, dalalm beberapa bulan setelah itu 702 00:46:20,400 --> 00:46:23,480 KIta telah menghabiskan lebih dari $2 miliar... 703 00:46:23,480 --> 00:46:26,600 hanya untuk spekulasi ilmiah dalam sejarah. 704 00:46:27,880 --> 00:46:32,000 Kalau ada yang bilang, kita ini jauh dari masa depan yang mengkhawatirkan. 705 00:46:32,430 --> 00:46:36,150 Mungkin jauhnya hanya antara bumi dan bintang... 706 00:46:36,150 --> 00:46:39,050 yang membawa kita dari sini menuju mesin super-cerdas. 707 00:46:40,050 --> 00:46:43,400 Kalau hanya butuh 20 tahun, bagaimana cara... 708 00:46:43,400 --> 00:46:46,400 supaya KB tetap menguntungkan, maka sudah dimulai dari... 709 00:46:46,410 --> 00:46:48,720 Sekarang, Bukan di detik terakhir... 710 00:46:48,730 --> 00:46:51,450 muncul seorang pemuda minum kratingdeng, 711 00:46:51,450 --> 00:46:53,450 yang menarik tuasnya, supaya terlihat hasilnya. 712 00:46:56,630 --> 00:46:59,460 Kita punya waktu lima tahun... 713 00:46:59,460 --> 00:47:02,750 saya kira digital yang super-cerdas akan muncul pada masa hidup saya. 714 00:47:03,650 --> 00:47:06,050 100%. 715 00:47:06,250 --> 00:47:08,500 Kalau ini terjadi, maka akan dikelilingi... 716 00:47:08,500 --> 00:47:12,510 oleh orang-orang yang tertarik dengan teknologi. 717 00:47:12,900 --> 00:47:16,770 Mereka ingin melihat keberhasilan, juga tidak mengharapkan itu di luar kendali. 718 00:47:25,400 --> 00:47:28,400 Ya Tuhan, saya sangat percaya sama komputer saya. 719 00:47:28,400 --> 00:47:30,030 Itu pertanyaan yang berat. 720 00:47:30,030 --> 00:47:33,200 Saya tidak percaya komputer saya, kalau nyala saya matiin. 721 00:47:33,200 --> 00:47:35,150 Biar sudah mati saya merasa masih nyala... 722 00:47:35,150 --> 00:47:38,050 seperti saat kau merasa... webcamnya, 723 00:47:38,060 --> 00:47:40,460 mungkin ada orang dari jauh nyalain, kau tidak tahu. 724 00:47:40,950 --> 00:47:44,150 Saya tidak percaya komputer saya, handphone saya... 725 00:47:44,150 --> 00:47:46,250 setiap hari bertanya, 726 00:47:46,250 --> 00:47:49,350 "Can we send your information to Apple?" 727 00:47:49,350 --> 00:47:52,930 Setiap saat, dan saya tidak percaya sama hp saya. 728 00:47:53,480 --> 00:47:57,520 Okeh, sebagian saya percaya karena... 729 00:47:57,800 --> 00:48:00,530 saya tidak akan bisa melewati hari... 730 00:48:00,530 --> 00:48:03,650 sebagaimana dunia kalau tidak ada komputer. 731 00:48:07,900 --> 00:48:10,440 Tilililililililililililililililililit. 732 00:48:10,850 --> 00:48:13,550 Kepercayaan itu ada karena yang seseorang alami. 733 00:48:17,620 --> 00:48:21,170 trurururururut...trurururururut. 734 00:48:21,180 --> 00:48:26,170 Saya memiliki pasien yang mengidap pembengkakan pembuluh darah di otaknya. 735 00:48:30,170 --> 00:48:34,000 Dia menatap mata saya, dan dia percayakan seluruh hidupnya ke saya. 736 00:48:34,800 --> 00:48:39,300 Saya tidak terlalu memikirkan apa pun. 737 00:48:39,890 --> 00:48:42,390 mungkin karena saya percaya dengan Anda. 738 00:48:50,500 --> 00:48:55,570 Prosedur ini, dalam 20 tahun yang lalu sangatlah mustahil. 739 00:48:57,050 --> 00:48:59,800 Karena dulu belum ada teknologi dan alatnya. 740 00:49:06,650 --> 00:49:09,000 Terjepit di sana. 741 00:49:14,550 --> 00:49:17,260 Bisa lebih parah lagi. Astaga. 742 00:49:22,620 --> 00:49:24,270 Jadi koilnya... 743 00:49:24,270 --> 00:49:26,270 baru masuk ke dalam. 744 00:49:26,680 --> 00:49:29,230 Ada benda kecil sekali yang menahan. 745 00:49:29,820 --> 00:49:31,820 Saat-saat gemetaran. 746 00:49:36,110 --> 00:49:37,540 Kami memasuki purgatori. 747 00:49:37,540 --> 00:49:40,490 purgatori intelektual humanistik. 748 00:49:40,750 --> 00:49:44,100 dan KB pasti tahu apa yang terjadi saat ini. 749 00:49:50,450 --> 00:49:52,400 Sudah masuk koil ke bagian yang bengkak... 750 00:49:52,410 --> 00:49:56,360 tapi masuknya tidak begitu benar, tapi saya tahu bakal begitu. 751 00:49:56,360 --> 00:50:00,800 kalau begitu resiko terjadi hal yang buruk mencapai 20%. 752 00:50:00,800 --> 00:50:02,930 Saya ingin keluarkan lagi. 753 00:50:04,270 --> 00:50:06,200 Karena kedekatan saya dengannya, 754 00:50:06,210 --> 00:50:10,100 dan kesulitan dalam prosedur ini. 755 00:50:10,100 --> 00:50:12,370 Saya mulai mempertimbangkan... 756 00:50:12,370 --> 00:50:15,000 yang paling aman supaya sukses. 757 00:50:16,200 --> 00:50:19,200 Saya hanya berdiri selama 10 menit menyiksa batin. 758 00:50:19,600 --> 00:50:21,850 Komputer tidak merasakan apa-apa. 759 00:50:21,850 --> 00:50:24,620 Komputer hanya melakukan yang perlu dilakukan, 760 00:50:24,620 --> 00:50:26,620 semakin dan semakin baik. 761 00:50:30,150 --> 00:50:32,500 Saya mau menjadi KB dalam kasus ini, 762 00:50:35,800 --> 00:50:39,200 tapi apa KB memiliki rasa kasihan? 763 00:50:42,900 --> 00:50:46,220 Karena ini pertanyaan semua orang mengenai KB. 764 00:50:47,700 --> 00:50:51,500 Kita adalah wujud kemanusiaan, 765 00:50:52,050 --> 00:50:55,200 sangat tidak mungkin, kalau yang namanya mesin... 766 00:50:55,200 --> 00:50:58,700 bisa memiliki rasa kasihan, dan cinta seperti manusia. 767 00:51:05,050 --> 00:51:07,050 Sebagian diri saya tidak percaya keajaiban, 768 00:51:07,050 --> 00:51:11,450 tapi sebagian lagi percaya kalau ada sesuatu dibalik semua ini. 769 00:51:11,450 --> 00:51:15,520 Ada yang satu dari setiap garis keturunan kita, 770 00:51:15,520 --> 00:51:18,320 garis biologis kita, garis sejarah kita. 771 00:51:20,250 --> 00:51:23,250 Suatu ikatan yang melebihi mesin. 772 00:51:30,250 --> 00:51:32,400 Lalu akan terlihat sisi yang mengatakan... 773 00:51:32,400 --> 00:51:35,060 Apakah komputer punya kesadaran, atau tidak punya... 774 00:51:35,060 --> 00:51:37,000 dan apa dia punya rasa peduli? 775 00:51:37,000 --> 00:51:39,000 Apa ia harus punya kesadaran? 776 00:51:39,850 --> 00:51:41,900 Apa ia butuh kepekaan? 777 00:51:52,870 --> 00:51:56,210 Menurut saya tidak mungkin robot memiliki kesadaran. 778 00:51:56,210 --> 00:51:58,170 Kecuali kalau diprogram. 779 00:51:58,580 --> 00:52:00,470 Kesadaran? Tidak. 780 00:52:00,470 --> 00:52:02,470 Tida, tidak. 781 00:52:03,200 --> 00:52:05,840 Menurut saya robot bisa diprogram supaya sadar, 782 00:52:05,840 --> 00:52:08,500 bagaimana kalau ia memprogram yang lainnya juga? 783 00:52:09,550 --> 00:52:12,310 Itulah bagian besar dari KB, 784 00:52:12,310 --> 00:52:15,500 membuat ia sadar, membuat ia merasakan. 785 00:52:22,300 --> 00:52:27,200 Kembali ke 2005, awal kami membangun mesin yang memiliki kepekaan. 786 00:52:32,870 --> 00:52:36,000 Robot ini, tidak tahu apa-apa. 787 00:52:37,090 --> 00:52:39,880 Yang ia tahu hanyalah dia harus berjalan. 788 00:52:44,350 --> 00:52:47,620 Melewati serangkaian kegagalan, ia berhasil berjalan. 789 00:52:47,630 --> 00:52:50,730 Menggunakan imajinasinya sendiri, lalu ia berjalan. 790 00:52:53,850 --> 00:52:57,440 Lalu kami melakukan hal yang keji, kami putusin kakinya. 791 00:52:57,440 --> 00:52:59,440 Dan lihatlah yang terjadi. 792 00:53:02,850 --> 00:53:06,900 Awalnya, ia tidak tahu harus bagaimana... 793 00:53:07,600 --> 00:53:11,550 tapi dalam beberapa hari, ia mulai jalan pincang. 794 00:53:13,120 --> 00:53:18,460 Lalu setahun yang lalu, kami melatih sistem KB untuk demonstrasi aslinya. 795 00:53:20,120 --> 00:53:22,510 Kami juga memberikan... 796 00:53:22,510 --> 00:53:26,180 objek di depan kamera, maka KB akan mengenali kalau itu objek. 797 00:53:27,200 --> 00:53:30,600 Kami menyiapkan demonya, dan dipinggiran ada layar... 798 00:53:30,600 --> 00:53:33,510 untuk kami supaya bisa melihat pergerakan neuron... 799 00:53:33,510 --> 00:53:35,510 atau bagaimana responnya. 800 00:53:36,650 --> 00:53:40,680 Kami menemukan ada satu neuron yang mendeteksi wajah. 801 00:53:40,850 --> 00:53:43,700 Mendeteksi wajah sebagaimana wajah kami bergerak. 802 00:53:45,350 --> 00:53:47,430 Yang mengerikan dari ini adalah... 803 00:53:47,430 --> 00:53:49,450 kami tidak membuat sistem itu... 804 00:53:49,450 --> 00:53:51,620 untuk mengenali wajah manusia. 805 00:53:52,330 --> 00:53:55,000 Entah bagaimana ia bisa melakukannya. 806 00:53:57,700 --> 00:54:01,800 Walaupun terdengar remeh, menurut kami itu adalah masalah. 807 00:54:02,250 --> 00:54:04,300 Ini bukan sekedar program. 808 00:54:05,800 --> 00:54:08,010 Ini baru permulaan. 809 00:54:10,250 --> 00:54:12,970 Saya sering memikirkan pantai di Kitty Hawk. 810 00:54:14,140 --> 00:54:18,200 Pada 1903, penerbangan oleh Wilbur bersaudara. 811 00:54:21,200 --> 00:54:24,200 Sebuah pesawat kanvas, dirangkai dengan kayu dan besil. 812 00:54:24,200 --> 00:54:26,670 Terbang selama 1 menit 20 detik, 813 00:54:26,680 --> 00:54:31,450 berada di dalam angin, sebelum mendarat kembali. 814 00:54:33,050 --> 00:54:37,000 Dan setelah 65 musim panas berikutnya, 815 00:54:37,000 --> 00:54:41,250 setelah momen itu, Anda bisa melihat 747... 816 00:54:41,250 --> 00:54:43,210 lepas landas dari JFK. 817 00:54:50,200 --> 00:54:52,970 Yang menjadi perhatian seseorang saat di pesawat ialah... 818 00:54:52,970 --> 00:54:56,890 cemilan tanpa garamnya, akan dibawakan atau tidak. 819 00:54:57,200 --> 00:55:01,290 Semua infrastruktur, agen travel dan menara pengawas. 820 00:55:01,290 --> 00:55:03,570 Semua itu lumrah. Karena sudah jadi bagian dunia. 821 00:55:06,850 --> 00:55:11,200 Sejauh ini kita bersama dengan mesin, yang berpikir dan menyelesaikan masalah. 822 00:55:11,200 --> 00:55:13,550 Kita sama saja berada di Kitty Hawk, di dalam angin, 823 00:55:13,550 --> 00:55:16,800 kita berada di pesawat kanvas yang terbang di udara. 824 00:55:20,770 --> 00:55:23,750 Tapi apa yang akan terjadi setelah 75 musim panas berikutnya... 825 00:55:23,750 --> 00:55:26,840 apakah akan ada mesin yang tidak dikendalikan manusia? 826 00:55:28,050 --> 00:55:29,470 Haruskah dikhawatirkan? 827 00:55:32,450 --> 00:55:35,640 Saya yakin, itu tidak akan terjadi. 828 00:55:40,100 --> 00:55:45,330 Tidak ada yang tahu, artinya robot yang memiliki kesadaran. 829 00:55:46,250 --> 00:55:48,490 Tidak akan ada itu. 830 00:55:48,700 --> 00:55:52,350 Banyak orang cerdas, dan saya menghormati mereka. 831 00:55:52,900 --> 00:55:54,330 Tapi, sebenarnya adalah... 832 00:55:54,330 --> 00:55:57,330 yang namanya mesin itu pada dasarnya adalah psikopat. 833 00:55:57,600 --> 00:55:59,050 Ketakutan melanda pasar. 834 00:55:59,050 --> 00:56:01,710 Turun $800 hampir $1000 dalam satu detik. 835 00:56:01,710 --> 00:56:03,130 Ini kapitulasi klasik. 836 00:56:03,130 --> 00:56:06,500 Beberapa orang mengatakan, kalau ini perbuatan seseorang. 837 00:56:07,010 --> 00:56:09,010 Lihatlah Flash Crash pada tahun 2010... 838 00:56:09,420 --> 00:56:11,750 Dalam hitungan menit, 839 00:56:11,750 --> 00:56:15,250 biliyunan dollar value dalam pasar saham, hilang. 840 00:56:15,250 --> 00:56:18,700 Saham jatuh 1.000 poin dalam setengah jam. 841 00:56:18,950 --> 00:56:21,110 Jadi, apa yang salah. 842 00:56:22,400 --> 00:56:23,770 Dari situ kita lihat... 843 00:56:24,050 --> 00:56:28,600 lebih dari 60% transaksi yang terjadi di pasar saham itu... 844 00:56:28,950 --> 00:56:32,820 berlangsung dalam komputer. 845 00:56:32,820 --> 00:56:34,820 Penjualan panik terjadi, dan tiba-tiba... 846 00:56:34,820 --> 00:56:35,740 nilai berhenti di receh. 847 00:56:35,740 --> 00:56:37,370 Tidak disangka-sangka. 848 00:56:37,370 --> 00:56:40,050 Cerita dibalik Flash Crash adalah... 849 00:56:40,050 --> 00:56:42,230 algoritma merespon algoritma lain... 850 00:56:42,230 --> 00:56:45,350 dan saling menghancurkan, terus, terus, dan terus. 851 00:56:45,400 --> 00:56:46,600 Dalam beberapa menit. 852 00:56:46,600 --> 00:56:50,850 Di satu sisi pasar jatuh seperti tercebur ke sumur. 853 00:56:50,850 --> 00:56:55,200 Tidak ada badan pengawas yang cukup cepat untuk mencegah... 854 00:56:55,200 --> 00:56:57,800 potensi yang berbahaya seperti itu, 855 00:56:57,800 --> 00:57:01,060 karena KB beroperasi dalam sistem finansial kita... 856 00:57:01,060 --> 00:57:03,730 pasti besar kemungkinan manipulasi. 857 00:57:04,000 --> 00:57:07,550 Kita lihat betapa cepatnya pasar menurun. 858 00:57:08,000 --> 00:57:11,100 Itu adalah KB yang marah, itulah yang ditakuti orang-orang. 859 00:57:11,440 --> 00:57:13,440 Ketika diberi kesempatan... 860 00:57:13,440 --> 00:57:16,750 ia akan berbuat kejam demi tercapainya tujuannya. 861 00:57:17,750 --> 00:57:19,540 Seberapa banyak program komputer begini? 862 00:57:20,160 --> 00:57:21,350 Tidak ada yang tahu. 863 00:57:23,330 --> 00:57:27,250 Salah satu aspek menarik dari KB secara umum adalah... 864 00:57:27,250 --> 00:57:30,920 tidak ada orang yang benar-benar paham bagaimana kerjanya. 865 00:57:31,840 --> 00:57:35,600 Termasuk orang yang menciptakan KB, tidak sepenuhnya paham. 866 00:57:36,850 --> 00:57:39,220 Karena ia memiliki jutaan elemen. 867 00:57:39,640 --> 00:57:42,900 Menjadi sangat tidak mungkin bagi manusia... 868 00:57:42,900 --> 00:57:44,940 untuk memahami apa yang terjadi. 869 00:57:52,050 --> 00:57:56,000 Microsoft menciptakan Kecerdasan Buatan... 870 00:57:56,000 --> 00:57:58,460 yang dinamakan Tay di Twitter, berupa chatbot. 871 00:58:01,050 --> 00:58:02,830 Diluncurkan pada pagi hari, 872 00:58:02,840 --> 00:58:06,050 lalu Tay mulai ngetwit dan mempelajari hal... 873 00:58:06,050 --> 00:58:07,650 yang dikirim ke dia. 874 00:58:07,650 --> 00:58:09,650 Dari twit orang lain. 875 00:58:10,650 --> 00:58:14,800 Karena seorang troll menyerang, dalam 24 jam... 876 00:58:14,800 --> 00:58:17,970 bot Microsoft menjadi sangat mengerikan. 877 00:58:18,500 --> 00:58:23,100 Mereka menarik Tay dari internet, karena ia berubah menjadi monster. 878 00:58:24,600 --> 00:58:29,900 Bot misantropi, rasis, mengerikan yang tidak akan Anda ingin temui. 879 00:58:30,360 --> 00:58:32,150 Tidak ada lagi ia. 880 00:58:35,200 --> 00:58:37,450 Jadi KB ini, tidak diberitahu... 881 00:58:37,450 --> 00:58:41,910 bagaimana meraih tujuan yang seharusnya. 882 00:58:42,600 --> 00:58:44,910 KB berkembang sendiri. 883 00:58:46,290 --> 00:58:48,710 Kami mengkhawatirkan KB super-cerdas... 884 00:58:48,710 --> 00:58:51,350 master dalam bermain catur yang akan menyerong kita. 885 00:58:52,600 --> 00:58:55,450 Tapi KB tidak akan secerdas itu... 886 00:58:55,900 --> 00:58:58,220 dalam hal mengacaukan... 887 00:58:58,220 --> 00:59:00,340 peradaban manusia. 888 00:59:00,340 --> 00:59:03,550 Kita lihat ke abad yang lalu, tidak perlu jenius untuk... 889 00:59:03,550 --> 00:59:05,890 mengacaukan sejarah ke jalur yang semestinya. 890 00:59:06,700 --> 00:59:09,400 Dan tidak perlu KB yang jenius untuk berbuat demikian. 891 00:59:10,200 --> 00:59:14,200 Berita pemilu hoax menjamur di facebook. 892 00:59:14,200 --> 00:59:16,900 Dan menjadi stories top. 893 00:59:17,360 --> 00:59:19,570 Facebook sudah menjadi gajah dalam kamar. 894 00:59:20,900 --> 00:59:23,600 KB yang mengolah beranda Facebok... 895 00:59:23,600 --> 00:59:27,600 adalah KB yang bertugas supaya pengguna tidak terlewat berita. 896 00:59:28,250 --> 00:59:31,000 Tapi tidak ada seorang pun yang paham betul... 897 00:59:31,000 --> 00:59:33,670 bagaimana KB tersebut berhasil mencapai tujuannya. 898 00:59:34,850 --> 00:59:38,600 Facebook telah membangun dinding cermin yang elegan di sekitar kita. 899 00:59:38,600 --> 00:59:41,540 Cermin yang bisa ditanya, "Siapa yang terbaik dari semuanya?" 900 00:59:41,540 --> 00:59:44,300 Dan jawabannya adalah Kau, kau, terus dan terus. 901 00:59:45,220 --> 00:59:48,060 Inilah yang membentuk realita kita. 902 00:59:48,060 --> 00:59:53,300 Membentuk pandangan politik, sejarah, peristiwa dunia kita. 903 00:59:53,350 --> 00:59:56,690 Sampai membuat keputusan mana yang benar dan tidak... 904 00:59:56,690 --> 00:59:58,530 apakah mungkin secara virtual? 905 01:00:00,900 --> 01:00:02,030 Yang jadi masalah adalah... 906 01:00:02,030 --> 01:00:04,700 KB tidak mengerti itu semua, KB hanya... 907 01:00:04,700 --> 01:00:09,120 diberi misi supaya pengguna tidak terlewat berita, dan ia berhasil. 908 01:00:09,950 --> 01:00:14,950 Hampir 2 miliyar orang, menghabiskan 1 jam dalam setiap hari... 909 01:00:14,950 --> 01:00:18,350 berinteraksi dengan KB yang... 910 01:00:18,350 --> 01:00:20,350 mengubah pengalaman mereka. 911 01:00:21,340 --> 01:00:24,640 Padahal teknisi Facebook tidak suka dengan berita hoax... 912 01:00:24,650 --> 01:00:27,840 karena itu buruk sekali, mereka ingin menyingkirkan hoax... 913 01:00:27,840 --> 01:00:29,840 tapi sulit dilakukan karena... 914 01:00:29,840 --> 01:00:32,150 bagaimana cara mengetahui kalau itu hoax? 915 01:00:32,150 --> 01:00:34,600 Kalau tidak membaca keseluruhan beritanya. 916 01:00:34,600 --> 01:00:38,700 Banyak sekali, penyebar berita palsu, 917 01:00:39,460 --> 01:00:42,900 dan dikemas baik sekali, dan sama ketika kalian... 918 01:00:42,900 --> 01:00:46,450 melihat halaman Facebook, dan televisi. 919 01:00:47,400 --> 01:00:51,230 Ini bukanlah sesuatu yang canggih, tapi kuat sekali. 920 01:00:51,500 --> 01:00:54,170 Nanti pandangan kalian tentang dunia... 921 01:00:54,170 --> 01:00:58,170 seperti 20 tahun yang lalu, kalau Anda menonton berita malam, 922 01:00:58,170 --> 01:00:59,670 dari saluran yang berbeda. 923 01:01:00,050 --> 01:01:02,430 tiga penyiar yang berusaha menyiarkan yang benar. 924 01:01:02,430 --> 01:01:04,150 mungkin terjadi bias antara mereka, 925 01:01:04,150 --> 01:01:07,550 tapi kita semua setuju akan realita yang objektif. 926 01:01:08,300 --> 01:01:10,640 Sehingga objektifitas kita menghilang, 927 01:01:10,640 --> 01:01:13,480 dan Facebook telah berhasil menghilangkan itu. 928 01:01:17,150 --> 01:01:20,900 Kalau kalian memahami bagaimana dunia bekerja dari Facebook, 929 01:01:20,900 --> 01:01:23,860 yang diprakarsai oleh software algoritma yang kerjanya... 930 01:01:23,860 --> 01:01:26,450 memberi Anda berita sesuai yang Anda inginkan, 931 01:01:27,280 --> 01:01:28,700 akan membahayakan. 932 01:01:28,700 --> 01:01:31,900 Tidak hanya kita menjadi pengikut arus, 933 01:01:33,000 --> 01:01:37,300 tapi membiarkan aktor bad-faith mengakses informasi. 934 01:01:37,300 --> 01:01:39,250 Itu adalah resep bencana. 935 01:01:43,250 --> 01:01:45,800 Banyak sekali aktor yang buruk... 936 01:01:45,800 --> 01:01:48,000 mencoba memanipulasi dunia dengan KB. 937 01:01:48,750 --> 01:01:53,600 2016 adalah contoh yang sempurna menjelang pemilu, banyak berita dari KB. 938 01:01:53,800 --> 01:01:56,150 Memproduksi dan menyebarluaskan berita hoax... 939 01:01:56,150 --> 01:01:58,650 demi sebuah tujuan dan hasil. 940 01:01:59,730 --> 01:02:02,080 Tuan dan nyonya, yang saya hormati. 941 01:02:02,080 --> 01:02:05,160 Sudah menjadi hak saya, berbicara tentang... 942 01:02:05,160 --> 01:02:07,800 kekuatan dari data yang besar dan psikografik... 943 01:02:07,800 --> 01:02:09,500 dalam proses pemilu. 944 01:02:09,500 --> 01:02:13,600 Terutama membicarakan kinerja, yang menyokong kepada... 945 01:02:13,600 --> 01:02:16,290 kampanye kepresidenan senator Cruz. 946 01:02:16,290 --> 01:02:19,100 Cambridge Analytica diam-diam ikut serta. 947 01:02:19,100 --> 01:02:21,920 Sebagai perusahaan yang berdasarkan banyak berita... 948 01:02:21,920 --> 01:02:25,550 memiliki kemampuan untuk menggunakan data yang banyak sekali. 949 01:02:26,150 --> 01:02:29,050 untuk memberi pengaruh pada perubahan sosial. 950 01:02:30,000 --> 01:02:34,950 Di 2016 mereka memiliki 3 klien besar, Ted Cruz salah satunya. 951 01:02:34,950 --> 01:02:39,350 Mudah melupakan yang terjadi 18 bulan lalu, Senator Cruz adalah... 952 01:02:39,350 --> 01:02:42,650 salah satu kandidat yang kurang populer sebagai nominasi... 953 01:02:42,650 --> 01:02:47,070 Jadi yang tidak mungkin saat 10 atau 15 tahun yang lalu... 954 01:02:47,070 --> 01:02:49,300 adalah mengirim berita hoax... 955 01:02:49,300 --> 01:02:52,330 ke orang-orang yang kalian inginkan. 956 01:02:52,330 --> 01:02:56,400 Lalu bisa dilihat bagaimana reaksi mereka di Facebook, 957 01:02:56,400 --> 01:03:01,540 lalu disesuaikan informasi tersebut tergantung feedback yang diterima. 958 01:03:01,540 --> 01:03:05,970 Maka dimulai pengembangan manajemen populasi nyata. 959 01:03:06,650 --> 01:03:10,500 Dalam kasus yang ini, sudah kami kelompokkan dan dinamai "Pembujuk", 960 01:03:10,500 --> 01:03:14,500 ini adalah orang-orang yang sudah pasti memilih Caucus, 961 01:03:14,500 --> 01:03:18,280 tapi harus digeser sedikit, dari tengah ke kanan sedikit. 962 01:03:18,280 --> 01:03:21,850 Supaya dapat mendukung Cruz mereka butuh pesan membujuk. 963 01:03:21,850 --> 01:03:25,600 "Hak senjata." Saya pilih, lingkaran kosong itu harus diisi sedikit. 964 01:03:25,600 --> 01:03:28,900 Dan sekarang kita harus memberi pesan untuk "Hak senjata," 965 01:03:28,900 --> 01:03:32,400 dan pesannya harus membujuk, dan harus sedikit berbeda... 966 01:03:32,400 --> 01:03:35,800 berdasarkan kepribadian seseorang yang kita tuju. 967 01:03:35,800 --> 01:03:39,780 Di media sosial terdapat informasi yang tak terbatas... 968 01:03:39,780 --> 01:03:42,350 untuk dikumpulkan mengenai tiap orang. 969 01:03:42,350 --> 01:03:45,650 Kita hampir memiliki 4K sampai 5K titik data... 970 01:03:45,650 --> 01:03:48,300 yang berisi tiap-tiap orang dewasa di United States. 971 01:03:48,420 --> 01:03:51,420 Ini semua tentang menargetkan setiap individu. 972 01:03:51,800 --> 01:03:55,680 Ini senjata yang bisa digunakan untuk ke arah yang menyimpang. 973 01:03:55,680 --> 01:03:57,890 Itulah masalah yang timbul dari data. 974 01:03:57,890 --> 01:04:01,600 Sudah seperti, kita membuat peluru sebelum kita membuat pestol. 975 01:04:02,060 --> 01:04:06,250 Ted Cruz memperkerjakan data kita, juga wawasan kita tentang perilaku. 976 01:04:06,250 --> 01:04:09,350 Dia mulai dari awal yang kurang dari 5%... 977 01:04:09,350 --> 01:04:13,350 dan perlahan tapi pasti mengalami... 978 01:04:13,350 --> 01:04:16,000 peningkatan yang pesat hingga 35%. 979 01:04:16,000 --> 01:04:20,210 Membuat dia sebagai saingan nomor 2 yang berbahaya dalam perlombaan. 980 01:04:20,210 --> 01:04:22,880 Sudah jelas kampanye Cruz berakhir sekarang. 981 01:04:22,880 --> 01:04:26,600 Tapi saya beritahu saja, pernah ada 2 kandidat yang... 982 01:04:26,600 --> 01:04:30,500 keluar dari pemilu, salah satunya menggunakan teknologi ini. 983 01:04:32,350 --> 01:04:35,850 Uwe Donald J. Trump brani sumvvah pocong... 984 01:04:35,850 --> 01:04:41,300 lou uwe bakalan bener jadi presiden Yunitet Stet. 985 01:04:48,250 --> 01:04:50,650 Pemilu adalah olahraga orang niat tidak niat... 986 01:04:50,650 --> 01:04:52,700 tidak membutuhkan KB yang canggih. 987 01:04:53,100 --> 01:04:57,540 Supaya menghasilkan pengaruh yang tidak seimbang. 988 01:04:58,850 --> 01:05:02,350 Sebelum Trump, Brexit adalah seorang klien. 989 01:05:02,350 --> 01:05:04,600 Sudah 20 menit menjelang pukul 5:00, 990 01:05:04,600 --> 01:05:08,550 kita tahu kalau, keputusan yang dibuat tahun 1975... 991 01:05:08,550 --> 01:05:12,050 oleh negara ini supaya bergabung dengan pasar bebas sudah diubah... 992 01:05:12,050 --> 01:05:15,950 sehubungan dengan referendum ini untuk meninggalkan Eropa! 993 01:05:17,150 --> 01:05:20,060 Cambridge Analytica diduga menggunakan KB... 994 01:05:20,060 --> 01:05:23,560 untuk mendorong dua hal yang mengguncang dunia dalam... 995 01:05:23,560 --> 01:05:26,650 perubahan politik, dari selama 50 tahun. 996 01:05:27,400 --> 01:05:30,550 Ini adalah peristiwa bersejarah, kalau kita percaya berita netijen... 997 01:05:30,550 --> 01:05:32,600 yang langsung terkoneksi dengan... 998 01:05:32,600 --> 01:05:36,950 software yang diciptakan oleh seorang profesor di Stanford. 999 01:05:41,250 --> 01:05:45,460 Saat 2013 saya sudah menjelaskan kalau yang mereka lakukan itu mungkin. 1000 01:05:45,460 --> 01:05:48,130 Dan berupa peringatan untuk masa yang akan datang. 1001 01:05:49,200 --> 01:05:52,850 Saat Michal Koshinski masih sebagai seorang mahasiswa riset, 1002 01:05:52,850 --> 01:05:54,800 bekerja di pusat psikometrik. 1003 01:05:54,800 --> 01:05:57,450 Yang Michal lakukan adalah mengumpulkan... 1004 01:05:57,450 --> 01:06:00,150 set data terbesar yang pernah ada... 1005 01:06:00,150 --> 01:06:02,650 tentang perilaku orang di Facebook. 1006 01:06:03,450 --> 01:06:06,550 Psikometrik ialah teladan yang menghitung... 1007 01:06:06,550 --> 01:06:08,300 sikap psikologis seperti... 1008 01:06:08,300 --> 01:06:11,690 kepribadian, kecerdasan, pandangan politik dan seterusnya. 1009 01:06:11,690 --> 01:06:15,400 Secara tradisional, kepribadian diukur dengan... 1010 01:06:15,400 --> 01:06:17,400 tes dan pertanyaan. 1011 01:06:17,700 --> 01:06:20,530 Tes kepribadian adalah hal yang tidak berbahaya. 1012 01:06:20,530 --> 01:06:23,200 Hal yang tidak memerlukan banyak keperluan, benar? 1013 01:06:24,000 --> 01:06:27,250 Menurut kami daripada memberi tes dan pertanyaan... 1014 01:06:27,250 --> 01:06:30,250 kami lebih baik melihat jejak digital perilaku yang... 1015 01:06:30,250 --> 01:06:31,550 kami sudah sediakan. 1016 01:06:32,330 --> 01:06:37,550 Untuk memahami, keterbukaan, kehati-hatian, kemudah-tersinggungan. 1017 01:06:37,550 --> 01:06:40,200 Bisa dibeli data pribadi yang berisi... 1018 01:06:40,200 --> 01:06:44,500 alamat, keanggotaan klub, keanggotaan gym... 1019 01:06:44,500 --> 01:06:47,730 Ada pasarnya yang menjual-belikan data pribadi. 1020 01:06:48,100 --> 01:06:51,650 Akhirnya bisa diketahui hal buruk yang Anda lakukan, berdasarkan... 1021 01:06:51,650 --> 01:06:53,980 set informasi yang sangat kecil. 1022 01:06:55,600 --> 01:06:59,000 Kami melatih jaringan DeepLearning untuk... 1023 01:06:59,000 --> 01:07:01,150 menyimpulkan kepribadian yang bertalian. 1024 01:07:01,150 --> 01:07:04,410 Pandangan politik seseorang, kepribadian, 1025 01:07:04,410 --> 01:07:07,600 kecerdasan, orientasi seks, 1026 01:07:07,600 --> 01:07:10,250 hanya melalui gambar wajah seseorang. 1027 01:07:16,850 --> 01:07:20,300 Pikirkan negara yang tidak bebas dan tidak terbuka. 1028 01:07:20,300 --> 01:07:22,050 Kalau Anda bisa mengungkap... 1029 01:07:22,050 --> 01:07:25,310 pandangan agamanya, politiknya, orientasi seksnya... 1030 01:07:25,800 --> 01:07:28,300 berdasarkan foto profil. 1031 01:07:28,600 --> 01:07:31,020 Maka ini akan menjadi masalah... 1032 01:07:31,020 --> 01:07:33,020 hidup dan matinya. 1033 01:07:36,800 --> 01:07:39,280 Saya pikir tidak ada jalan keluarnya. 1034 01:07:41,850 --> 01:07:44,320 Kau tahu apa itu Tes Turing? 1035 01:07:45,500 --> 01:07:48,600 Ketika manusia berinteraksi dengan komputer... 1036 01:07:48,600 --> 01:07:52,300 kalau manusianya tidak tahu dia sedang interaksi dengan komputer, 1037 01:07:52,300 --> 01:07:53,670 tesnya berhasil. 1038 01:07:54,590 --> 01:07:56,590 Dan beberapa hari lagi... 1039 01:07:57,090 --> 01:07:59,510 kau akan menjadi manusianya untuk Tes Turing. 1040 01:07:59,510 --> 01:08:02,000 - Tidak mungkin. - Iya, begitulah Caleb, 1041 01:08:02,000 --> 01:08:03,800 kau berhasil. 1042 01:08:03,800 --> 01:08:06,450 Kalau tesnya berhasil. 1043 01:08:06,450 --> 01:08:09,350 Kau, akan menjadi titik matinya... 1044 01:08:09,350 --> 01:08:12,190 peristiwa terbesar dalam dunia sains dalam sejarah manusia. 1045 01:08:12,700 --> 01:08:14,540 Kalau kau ciptakan mesin yang sadar... 1046 01:08:14,540 --> 01:08:16,540 itu tidaklah menjadi sejarah manusia, 1047 01:08:17,400 --> 01:08:19,430 itu akan menjadi sejarah bagi Tuhan. 1048 01:08:26,700 --> 01:08:30,000 Teknologi sudah seperti Tuhan yang menjelma. 1049 01:08:33,040 --> 01:08:35,180 Seperti cuaca. Kita tidak bisa merubahnya. 1050 01:08:35,180 --> 01:08:38,300 Kita tidak bisa memundurkannya, menghentikannya. 1051 01:08:39,470 --> 01:08:41,760 Kita seperti tidak berdaya. 1052 01:08:43,600 --> 01:08:46,550 Kalau menurut kami Tuhan itu adalah Kecerdasan yang tak terhingga. 1053 01:08:46,550 --> 01:08:48,470 supaya kita bisa dekat adalah dengan... 1054 01:08:49,100 --> 01:08:52,050 meningkatkan kecerdasan kita dan menggabungkannya dengan... 1055 01:08:52,050 --> 01:08:54,270 Kecerdasan Buatan yang kami ciptakan. 1056 01:08:55,450 --> 01:08:58,700 Saat ini komputer, hp, aplikasi, 1057 01:08:58,700 --> 01:09:00,990 memberi kita kemampuan menjadi manusia super. 1058 01:09:01,500 --> 01:09:04,110 Pepatah tua mengatakan, "Kalau tidak bisa dikalahkan, bergabunglah." 1059 01:09:06,880 --> 01:09:09,800 Ini semua tentang hubungan antara manusia dengan mesin. 1060 01:09:09,810 --> 01:09:11,350 Kita semua sudah tahu, 1061 01:09:11,350 --> 01:09:14,770 hp kita contohnya, sudah menjadi ingatan buatan kita, benar? 1062 01:09:14,780 --> 01:09:17,920 Saya tidak perlu mengingat no. hp lagi karena sudah ada di hp saya. 1063 01:09:19,170 --> 01:09:21,900 Ini tentang mesin untuk meningkatkan kemampuan manusia. 1064 01:09:21,910 --> 01:09:24,500 Tidak dengan sebaliknya. 1065 01:09:25,090 --> 01:09:27,300 Coba lihatlah setiap objek, yang berubah... 1066 01:09:27,300 --> 01:09:29,850 dari analog ke digital dalam kurun 20 tahun. 1067 01:09:29,850 --> 01:09:31,850 Banyak sekali. 1068 01:09:31,850 --> 01:09:35,500 Kita adalah objek analog dalam teknologi digital. 1069 01:09:35,500 --> 01:09:38,750 Yang jadi permasalahannya adalah input dan output datanya. 1070 01:09:38,750 --> 01:09:42,450 Sangat terbatas, hanya ini dan ini. 1071 01:09:43,850 --> 01:09:47,910 Mata kita bagus sekali, dapat menerima banyak informasi visual. 1072 01:09:48,750 --> 01:09:51,650 Tapi outputnya sangat lemah. 1073 01:09:52,410 --> 01:09:56,200 Alasanya sangat penting, kalau kita bayangkan suatu skenario... 1074 01:09:56,200 --> 01:09:59,380 KB memainkan peran penting lebih banyak di masyarakat kita. 1075 01:09:59,380 --> 01:10:01,840 Kami ingin lebih mendalami interaksi dengan teknologi. 1076 01:10:01,840 --> 01:10:04,800 Maka akhirnya kita harus dikembangkan. 1077 01:10:08,400 --> 01:10:11,400 Yang terpenting KB jangan sampai menjadi lain. 1078 01:10:12,100 --> 01:10:13,560 Ia harus menjadi kita. 1079 01:10:14,700 --> 01:10:17,850 Dan mungkin saya sudah salah kata. 1080 01:10:18,950 --> 01:10:22,650 Saya hanya terbuka untuk setiap ide yang membuat lebih baik. 1081 01:10:24,250 --> 01:10:28,640 Saya pikir, kita memang harus bergabung dengan KB atau tertinggal. 1082 01:10:36,150 --> 01:10:40,990 Rasanya sulit melepas sistem yang sudah tersebar di planet ini. 1083 01:10:41,670 --> 01:10:44,760 Juga sudah tersebar ke tata surya. 1084 01:10:45,650 --> 01:10:48,250 Anda tidak bisa mematikannya begitu saja. 1085 01:10:49,470 --> 01:10:51,930 Kita sudah membuka kotak Pandora, kita melepaskan... 1086 01:10:51,930 --> 01:10:55,350 kekuatan yang tidak bisa dikendalikan, dihentikan. 1087 01:10:55,480 --> 01:10:59,520 Kita berada ditengah-tengah penciptaan kehidupan baru di bumi. 1088 01:11:05,850 --> 01:11:07,550 Kita tidak tahu apa yang akan terjadi, 1089 01:11:07,550 --> 01:11:10,820 kita tidak tahun bagaimana bentuk mesin cerdasnya. 1090 01:11:10,820 --> 01:11:13,950 Yang mana kecerdasan itu jauh melampaui kemampuan manusia. 1091 01:11:14,400 --> 01:11:16,620 Itu bukan sesuatu yang mungkin. 1092 01:11:24,600 --> 01:11:26,300 Yang mengerikan di masa depan adalah... 1093 01:11:26,300 --> 01:11:28,970 kalau kita mendemokrasikan KB. 1094 01:11:31,350 --> 01:11:35,020 Kalau sebuah perusahaan atau sekelompok kecil orang... 1095 01:11:35,020 --> 01:11:38,230 mengembangkan digital super-cerdas, dia bisa menguasai dunia. 1096 01:11:40,150 --> 01:11:43,690 Untungnya diktator jahat, sudah pada mati. 1097 01:11:44,250 --> 01:11:48,100 Tapi KB tidak akan mati, ia akan hidup selamanya. 1098 01:11:49,250 --> 01:11:51,280 Berarti akan hidup Diktator abadi. 1099 01:11:51,740 --> 01:11:53,370 Yang tidak dapat dihindari. 1100 01:13:19,410 --> 01:13:27,230 Pengerjaan Kecerdasan Buatan adalah industri miliaran dollar. 1101 01:13:27,230 --> 01:13:32,230 Hampir tanpa regulasi. 1102 01:13:32,900 --> 01:13:35,250 Project N.O.N.S.K.I Destroy human wanna-be god being.