Not a member of Pastebin yet?
Sign Up,
it unlocks many cool features!
- 0
- 00:00:05,000 --> 00:00:15,000
- INDOXXI
- Support dengan like & share :)
- 1
- 00:00:10,400 --> 00:00:14,400
- Engkau yang menciptakan aku,
- tapi akulah tuannya...
- 2
- 00:00:35,410 --> 00:00:37,390
- Kita ini sedang di dalam zaman apa?
- 3
- 00:00:37,390 --> 00:00:44,830
- Kita sedang di zaman perkembangan
- Kecerdasan Buatan...
- 4
- 00:00:45,370 --> 00:00:51,310
- Teknologi ber-evolusi lebih cepat
- daripada keamanan masyarakat.
- 5
- 00:00:51,310 --> 00:00:55,520
- Robot segera hadir, dan akan
- menghancurkan hidup kita.
- 6
- 00:01:01,710 --> 00:01:04,410
- Kami memiliki jaringan Kecerdasan
- yang memantau semua...
- 7
- 00:01:04,410 --> 00:01:08,200
- Tahu segalanya tentang kita,
- dan akan mengubah kita.
- 8
- 00:01:08,450 --> 00:01:12,100
- Twitter menjadi situs berita nomor satu!
- 9
- 00:01:12,600 --> 00:01:17,230
- Teknologi tidaklah positif atau negatif,
- tergantung kitanya dengan teknologi.
- 10
- 00:01:19,300 --> 00:01:22,560
- Pada akhirnya jutaan orang
- akan kehilangan pekerjaan.
- 11
- 00:01:22,600 --> 00:01:25,350
- Karena keahlian mereka akan dikalahkan.
- 12
- 00:01:25,450 --> 00:01:30,650
- Pengangguran menjamur, kesenjangan,
- penahanan sosial.
- 13
- 00:01:32,350 --> 00:01:35,350
- TIdak ada hubungannya,
- takut atau tidak takut.
- 14
- 00:01:35,380 --> 00:01:38,000
- Perubahan akan datang dan
- tiada yang dapat menghentikan.
- 15
- 00:01:44,500 --> 00:01:49,000
- Kami telah diinves banyak uang,
- itulah alasannya juga pihak militer...
- 16
- 00:01:49,080 --> 00:01:53,000
- mau tidak mau wajib
- menggunakan teknologi.
- 17
- 00:01:53,300 --> 00:01:57,300
- Sistem senjata otomatis,
- sebabkan lomba menciptakan senjata...
- 18
- 00:01:57,450 --> 00:01:59,800
- sebagai upaya bertahan,
- dalam era nuklir.
- 19
- 00:02:02,130 --> 00:02:05,520
- - Siapa yang tahu alasannya?
- - Yang pasti akan membunuh kita semua.
- 20
- 00:02:10,650 --> 00:02:14,600
- Saking pesatnya akan menimbulkan...
- keajaiban besar?
- 21
- 00:02:15,750 --> 00:02:17,400
- Dan kengerian besar.
- 22
- 00:02:24,350 --> 00:02:25,650
- Kami ciptakan ini...
- 23
- 00:02:27,210 --> 00:02:30,600
- dan karena upaya kami, Kecerdasan ini...
- 24
- 00:02:30,600 --> 00:02:32,600
- menjadi bagian dari kita.
- 25
- 00:02:34,050 --> 00:02:35,700
- Yang jadi pertanyaan adalah...
- 26
- 00:02:35,800 --> 00:02:38,090
- apakah ini akan baik untuk kita,
- 27
- 00:02:39,500 --> 00:02:40,800
- atau buruk untuk kita?
- 28
- 00:02:47,850 --> 00:02:49,850
- Anda percaya dengan komputer?
- 29
- 00:03:04,950 --> 00:03:08,540
- Yang selamat dari perang akhir zaman.
- 30
- 00:03:08,620 --> 00:03:11,000
- Mereka tidak akan bermimpi buruk lagi...
- 31
- 00:03:12,400 --> 00:03:14,450
- yaitu perang melawan robot.
- 32
- 00:03:15,210 --> 00:03:17,210
- Kurasa ini dosa kita.
- 33
- 00:03:18,140 --> 00:03:22,220
- Saya rasa Hollywood mengatakan
- ke publik, bertentangan dengan...
- 34
- 00:03:22,510 --> 00:03:23,510
- pertanyaan ini.
- 35
- 00:03:24,140 --> 00:03:27,300
- Gagasan bahwa robot akan
- menguasai dunia.
- 36
- 00:03:28,550 --> 00:03:30,810
- Buka pintunya, Hal.
- 37
- 00:03:31,850 --> 00:03:33,400
- Maaf, Dave...
- 38
- 00:03:33,560 --> 00:03:35,730
- sepertinya aku tidak bisa.
- 39
- 00:03:37,880 --> 00:03:38,750
- Hal?
- 40
- 00:03:38,840 --> 00:03:42,550
- Kami sudah memberi tahu,
- tapi publik tidak mau tahu...
- 41
- 00:03:42,700 --> 00:03:45,660
- memang cuma fiksi ilmiah,
- tapi coba lihat yang film ini maksudkan...
- 42
- 00:03:45,670 --> 00:03:47,900
- memang tampaknya bodoh, atau...
- 43
- 00:03:47,900 --> 00:03:49,900
- film ini hanyalah...
- 44
- 00:03:50,200 --> 00:03:51,450
- karangan yang murah.
- 45
- 00:03:51,450 --> 00:03:56,000
- WOPR selama ini memikirkan
- Perang Dunia 3.
- 46
- 00:03:56,460 --> 00:03:57,670
- Kenyataannya tidak.
- 47
- 00:03:58,900 --> 00:04:02,000
- Masyarakat umum tidaklah melihat ini.
- 48
- 00:04:11,350 --> 00:04:14,800
- Saat ini masyarakat semakin individual,
- meningkat pula...
- 49
- 00:04:15,050 --> 00:04:17,250
- mesin yang berbasis Kercerdasan.
- 50
- 00:04:18,850 --> 00:04:22,550
- Saat kita memegang smartphone kita...
- 51
- 00:04:22,550 --> 00:04:26,240
- yang biasa kita gunakan untuk,
- membuat keputusan dalam hidup kita.
- 52
- 00:04:26,580 --> 00:04:30,620
- Padahal gawai tersebut menggunakan
- algoritma yang tidak kita ketahui.
- 53
- 00:04:34,440 --> 00:04:37,750
- Kita letih dengan telepon yang
- hanya digunakan untuk komunikasi...
- 54
- 00:04:37,760 --> 00:04:39,850
- malah benda tersebut
- yang paling mengerti kita.
- 55
- 00:04:39,850 --> 00:04:42,170
- Aku menemukan banyak film aksi.
- 56
- 00:04:42,170 --> 00:04:44,300
- Lima tahun yang lalu, bukan apa-apa.
- 57
- 00:04:44,760 --> 00:04:48,650
- Robot itu mesin yang melihat,
- berbicara dan mendengar...
- 58
- 00:04:48,650 --> 00:04:49,890
- sudah jadi kenyataan.
- 59
- 00:04:50,140 --> 00:04:54,050
- Dan teknologi ini.
- Akan mengubah masyarakat kita.
- 60
- 00:04:56,000 --> 00:04:59,100
- Saat ini sudah ada
- mobil yang berjalan sendiri.
- 61
- 00:05:00,020 --> 00:05:04,300
- Mobil yang berjalan otomatis,
- dapat membuat hidup jadi lebih baik.
- 62
- 00:05:05,950 --> 00:05:09,300
- Saya kehilangan banyak orang dekat,
- termasuk ibu...
- 63
- 00:05:09,700 --> 00:05:11,550
- kakak dan adik saat saya masih kecil.
- 64
- 00:05:11,740 --> 00:05:13,120
- karena kecelakaan mobil.
- 65
- 00:05:13,850 --> 00:05:17,050
- Sudah pasti, kita dapat menghapus...
- 66
- 00:05:17,050 --> 00:05:19,850
- kecelakaan mobil dengan Gerak Otomatis.
- 67
- 00:05:19,950 --> 00:05:23,550
- Tiga ribu nyawa di US dalam setahun.
- Jutaan nyawa di dunia setahun.
- 68
- 00:05:25,450 --> 00:05:29,450
- Dalam bidang Kesehatan, juga
- sangat memerlukan karena...
- 69
- 00:05:29,850 --> 00:05:32,100
- di situlah kita juga dapat
- menyelamatkan nyawa,
- 70
- 00:05:33,660 --> 00:05:35,520
- Ini pusat kanker payudara.
- 71
- 00:05:35,520 --> 00:05:38,880
- Yang telah dilakukan
- radiologist otak adalah...
- 72
- 00:05:39,560 --> 00:05:42,980
- dalam dua menit komputer
- menemukannya, sangat cepat.
- 73
- 00:05:43,690 --> 00:05:47,110
- Komputer sudah melihat
- satu juta jaringan...
- 74
- 00:05:47,110 --> 00:05:50,830
- membuat data tersebut menjadi gambar ini.
- dengan cepat.
- 75
- 00:05:51,410 --> 00:05:54,080
- Jadi, jasanya dalam kedokteran,
- sangat besar.
- 76
- 00:05:56,360 --> 00:05:59,890
- Yang lebih menarik lagi, di mana
- terjadi banyak perkembangan adalah...
- 77
- 00:05:59,890 --> 00:06:02,700
- pemahaman dalam kode genetik.
- 78
- 00:06:03,300 --> 00:06:07,380
- Dan digunakan untuk, mendiagnosa dan
- menyembuhkan penyakit.
- 79
- 00:06:11,800 --> 00:06:16,200
- Penerapan mesin-mesin ini,
- untuk memperluas kecerdasan kita.
- 80
- 00:06:17,220 --> 00:06:21,600
- Dapat membuat kita semakin cerdas,
- juga membantu dalam menyelesaikan masalah.
- 81
- 00:06:22,550 --> 00:06:26,000
- Mengenai umur, mesin membantu
- memahaminya, kita bisa hentikan itu.
- 82
- 00:06:27,000 --> 00:06:30,500
- Tidak ada batasnya, Kecerdasan Buatan
- dalam membantu manusia.
- 83
- 00:06:36,100 --> 00:06:39,790
- Bagaimana bisa, mesin yang cerdas
- tidak membuat kehidupan lebih baik?
- 84
- 00:06:41,880 --> 00:06:46,510
- Saya tidak tahu kapan, saya pernah
- berpikir kalau hal itu naif.
- 85
- 00:06:56,690 --> 00:07:00,700
- Pak Russel adalah dewa dalam
- masalah KB.
- 86
- 00:07:00,700 --> 00:07:03,700
- Dia menulis buku yang digunakan
- setiap Universitas.
- 87
- 00:07:04,150 --> 00:07:06,820
- Dulu menurut saya itu buku
- laris tentang KB,
- 88
- 00:07:06,820 --> 00:07:10,200
- tapi sekarang, PDF-nya
- sudah ada yang bajakan.
- 89
- 00:07:13,430 --> 00:07:16,740
- KB adalah upaya membuat komputer cerdas.
- 90
- 00:07:17,100 --> 00:07:19,660
- Tapi dari sudut pandang publik...
- 91
- 00:07:19,660 --> 00:07:23,250
- KB hanyalah sesuatu yang
- membuat orang terkesan...
- 92
- 00:07:23,250 --> 00:07:24,670
- dibanding yang kami pikirkan.
- 93
- 00:07:24,880 --> 00:07:26,880
- Mesin dapat berbuat seperti manusia.
- 94
- 00:07:28,240 --> 00:07:31,430
- KB penuh penelitian...
- 95
- 00:07:31,430 --> 00:07:35,390
- supaya dapat meniru setiap
- kemampuan manusia.
- 96
- 00:07:36,600 --> 00:07:38,250
- Kita sedang dalam era KB.
- 97
- 00:07:38,640 --> 00:07:42,210
- Jadi segalanya difokuskan untuk KB
- apapun yang terjadi.
- 98
- 00:07:42,210 --> 00:07:45,330
- Seperti jaringan sosial dan
- sosial media selama dekade ini...
- 99
- 00:07:45,330 --> 00:07:47,500
- sudah jelas, hal itu jadi pengenalan.
- 100
- 00:07:48,000 --> 00:07:50,450
- Diawali oleh Mesin Yang Belajar...
- 101
- 00:07:50,610 --> 00:07:53,200
- Kalau kita melihat ke belakang,
- kapan asal KB?
- 102
- 00:07:54,070 --> 00:07:57,070
- Bukan hal yang seronok,
- dan juga tidak ada dalam film.
- 103
- 00:07:57,070 --> 00:07:59,600
- Kita bisa lihat, Google.
- 104
- 00:08:00,000 --> 00:08:02,500
- Bukan mesin pencari tapi
- Pertolongan Tuhan.
- 105
- 00:08:03,200 --> 00:08:07,750
- Muncul pertanyaan yang tidak ditanya,
- tanya apapun, jawabannya pasti dapat.
- 106
- 00:08:08,090 --> 00:08:13,260
- Banyak yang tidak tahu,
- kalau Google itu adalah KB.
- 107
- 00:08:13,550 --> 00:08:17,220
- Ketik saja yang diinginkan,
- Google akan memberi jawaban.
- 108
- 00:08:18,100 --> 00:08:21,100
- Setiap satu pencarian,
- Google belajar supaya lebih baik.
- 109
- 00:08:21,390 --> 00:08:23,310
- Lihat saja, ketika Anda mengetik...
- 110
- 00:08:23,310 --> 00:08:26,480
- jawabannya sudah muncul
- sebelum Anda selesai mengetik.
- 111
- 00:08:27,250 --> 00:08:29,900
- Contoh, siapa presiden Kazakstan,
- 112
- 00:08:29,900 --> 00:08:31,200
- Google langsung beritahu.
- 113
- 00:08:31,550 --> 00:08:34,250
- Tidak perlu melihat halaman Kazakstan.
- 114
- 00:08:34,740 --> 00:08:36,450
- Tidak perlu sama sekali.
- 115
- 00:08:36,950 --> 00:08:39,070
- Itu yang namanya Kecerdasan Buatan.
- 116
- 00:08:39,290 --> 00:08:41,550
- Inilah yang saat ini kami coba pahami.
- 117
- 00:08:41,830 --> 00:08:43,790
- Google berkata,
- "Bagaimana kalau ada yang terlewat?"
- 118
- 00:08:44,450 --> 00:08:48,250
- Suatu kontradiksi yang sulit,
- itu yang kami hadapi.
- 119
- 00:08:48,250 --> 00:08:53,750
- Google dan Facebook telah memberi
- kita banyak sekali hal baru.
- 120
- 00:08:54,000 --> 00:08:58,890
- Tapi tidak cuma-cuma,
- mereka mengekstrak sesuatu sebagai gantinya.
- 121
- 00:09:00,200 --> 00:09:04,800
- Dan kita tidak tahu, kode macam apa
- yang bekerja dibalik semua itu.
- 122
- 00:09:06,450 --> 00:09:10,190
- Inilah masalah utamanya,
- bisakah kita percayai mesin ini?
- 123
- 00:09:14,000 --> 00:09:17,770
- Saya menggunakan komputer,
- dalam setiap keadaan.
- 124
- 00:09:17,990 --> 00:09:21,200
- Banyak sekali untungnya komputer...
- 125
- 00:09:21,200 --> 00:09:23,660
- dan sudah menjadi bagian besar hidup kami.
- 126
- 00:09:23,660 --> 00:09:28,900
- Mengagumkan yang namanya komputer,
- karena sudah muat ditaruh dompet.
- 127
- 00:09:28,960 --> 00:09:31,380
- Bagi saya, mengagumkan sekali.
- 128
- 00:09:31,600 --> 00:09:33,650
- Menurut saya teknologi itu...
- 129
- 00:09:33,650 --> 00:09:36,800
- dibuat untuk memudahkan kita semua.
- 130
- 00:09:37,250 --> 00:09:40,180
- Jadi, difokuskan saja perkembangannya.
- 131
- 00:09:40,680 --> 00:09:44,000
- Kayaknya semua orang
- cinta sama komputernya.
- 132
- 00:09:51,550 --> 00:09:55,750
- Orang-orang tidak ada yang tahu,
- kalau mereka perlahan diperbudak...
- 133
- 00:09:56,110 --> 00:09:57,200
- oleh mesin.
- 134
- 00:09:59,320 --> 00:10:02,450
- Oleh harga produk di Amazon.
- 135
- 00:10:02,910 --> 00:10:05,450
- seperti harga tiket pesawat,
- 136
- 00:10:05,450 --> 00:10:08,330
- atau ruangan hotel yang dipesan.
- 137
- 00:10:08,800 --> 00:10:11,850
- Melihat itu, mesin mempelajari algoritma baru...
- 138
- 00:10:11,850 --> 00:10:13,850
- menentukan bahwa orang seperti Anda...
- 139
- 00:10:14,100 --> 00:10:17,400
- termasuk yang maunya murah,
- mengenai harga.
- 140
- 00:10:21,600 --> 00:10:25,050
- Sekarang komputer sudah bisa,
- melihat jutaan orang dalam 1 detik...
- 141
- 00:10:25,050 --> 00:10:27,550
- dengan cara yang cerdas.
- 142
- 00:10:27,890 --> 00:10:30,480
- Anda bisa melihat jejak digital...
- 143
- 00:10:30,990 --> 00:10:34,450
- seperti daftar putar seseorang
- dalam Spotify.
- 144
- 00:10:34,600 --> 00:10:36,900
- atau barang yang mereka beli di Amazon.
- 145
- 00:10:36,900 --> 00:10:42,660
- lalu Algoritma menerjemahkan,
- serinci dan seakurat mungkin...
- 146
- 00:10:42,670 --> 00:10:43,910
- profil orang tersebut.
- 147
- 00:10:50,850 --> 00:10:55,420
- jadi sangat akurat yang mesin ketahui,
- dibanding ibu kalian.
- 148
- 00:11:04,550 --> 00:11:06,500
- Penyebab utama adanya KB
- bukanlah...
- 149
- 00:11:06,500 --> 00:11:10,980
- karena orang yang memiliki otak
- brilian dan berwawasan.
- 150
- 00:11:11,400 --> 00:11:15,200
- Tapi karena kita punya banyak data,
- untuk diproses,
- 151
- 00:11:15,200 --> 00:11:17,400
- dan komputer yang sangat cepat.
- 152
- 00:11:18,250 --> 00:11:21,280
- Keajaibannya ada dalam data.
- Banyak sekali data...
- 153
- 00:11:21,610 --> 00:11:25,530
- Data seperti ini belum pernah ada,
- dalam sejarah manusia.
- 154
- 00:11:26,490 --> 00:11:30,160
- Kami membuat teknologi yang
- dapat menangkap...
- 155
- 00:11:30,500 --> 00:11:32,500
- informasi dalam jumlah besar.
- 156
- 00:11:32,960 --> 00:11:36,750
- Menurut Anda kalau smartphone
- dipasangkan gyroscope...
- 157
- 00:11:36,920 --> 00:11:39,630
- accelerometer,
- fiingerprint,
- 158
- 00:11:39,720 --> 00:11:43,550
- GPS, dalam foto yang Anda kirim ke Twitter.
- 159
- 00:11:43,840 --> 00:11:47,220
- Kami menangkap, data yang sangat
- banyak sekali dalam satu individu.
- 160
- 00:11:47,560 --> 00:11:51,800
- Mobil yang dikendarai, dan
- kamera yang ada di depan...
- 161
- 00:11:51,880 --> 00:11:54,650
- Satelit saat ini, yang ukurannya
- sangat kecil...
- 162
- 00:11:54,650 --> 00:11:57,400
- memantau makhluk hidup
- di planet ini.
- 163
- 00:11:57,480 --> 00:12:00,700
- Pelampung yang ada di lautan,
- memantau iklim.
- 164
- 00:12:04,900 --> 00:12:06,500
- NSA,
- 165
- 00:12:06,800 --> 00:12:11,250
- CIA tinggal klik untuk mengetahui
- informasi politik suatu daerah.
- 166
- 00:12:12,500 --> 00:12:15,600
- Dunia sedang berenang dalam data.
- 167
- 00:12:20,650 --> 00:12:22,300
- Kembali ke 2012...
- 168
- 00:12:22,550 --> 00:12:25,800
- IBM sudah menghitung, kalau
- rata-rata orang...
- 169
- 00:12:25,800 --> 00:12:30,600
- sedikitnya, 500MB jejak digital
- setiap hari.
- 170
- 00:12:30,890 --> 00:12:33,050
- Kalau Anda ingin mem-back up...
- 171
- 00:12:33,050 --> 00:12:36,150
- keseluruhan data yang Anda hasilkan...
- 172
- 00:12:36,270 --> 00:12:41,400
- lalu dicetak di kertas ukuran letter
- bolak-balik, ukuran font 12,
- 173
- 00:12:41,700 --> 00:12:43,600
- lalu Anda tumpuk.
- 174
- 00:12:43,600 --> 00:12:47,400
- Tingginya bisa melewati bumi
- menuju matahari.
- 175
- 00:12:47,620 --> 00:12:50,400
- Empat kali lipatnya, hanya dalam sehari.
- 176
- 00:12:51,160 --> 00:12:53,650
- Data itu sendiri tidaklah
- baik atau jahat,
- 177
- 00:12:53,650 --> 00:12:55,330
- tapi tergantung Anda.
- 178
- 00:12:55,420 --> 00:12:58,200
- Kami bergantung pada
- itikad baik setiap orang...
- 179
- 00:12:58,200 --> 00:13:00,700
- dan kebijakan perusahaan.
- 180
- 00:13:01,050 --> 00:13:05,600
- Tidak ada persyaratan legal,
- dalam kemunculan data tersebut.
- 181
- 00:13:06,180 --> 00:13:09,700
- Itu yang menurut saya masalah
- besar supaya percaya.
- 182
- 00:13:11,100 --> 00:13:15,100
- Kami sedang dalam lomba membuat mesin
- yang secerdas manusia.
- 183
- 00:13:15,600 --> 00:13:19,700
- Google itu seperti Manhattan Project
- mengenai KB,
- 184
- 00:13:19,700 --> 00:13:22,230
- ia punya banyak dana,
- banyak bakat...
- 185
- 00:13:22,500 --> 00:13:25,550
- mereka membeli perusahaan kecil KB
- dan perusahaan robotik.
- 186
- 00:13:27,000 --> 00:13:30,900
- Orang masih berpikiran Google itu mesin pencari.
- Ia juga provider emali...
- 187
- 00:13:30,900 --> 00:13:33,200
- dan banyak lagi yang
- kita gunakan sehari-hari.
- 188
- 00:13:33,790 --> 00:13:36,000
- Tapi, dibalik kotak pencariannya...
- 189
- 00:13:36,150 --> 00:13:38,800
- ada 10 juta server.
- 190
- 00:13:39,540 --> 00:13:43,500
- Makanya Google menjadi program
- komputer terkuat di dunia.
- 191
- 00:13:43,800 --> 00:13:46,900
- Sekarang Google mengusahakan KB komputing,
- 192
- 00:13:46,900 --> 00:13:49,140
- dan mereka akan buat 100 juta server.
- 193
- 00:13:52,150 --> 00:13:54,900
- Saat berinteraksi dengan Google
- kita hanya melihat...
- 194
- 00:13:54,900 --> 00:13:58,500
- benda seukuran kuku, yang merupakan
- raksasa buas kinerjanya...
- 195
- 00:13:58,730 --> 00:14:02,570
- dan saya tidak yakin kalau Google tahu
- benda itu akan menjadi apa.
- 196
- 00:14:11,350 --> 00:14:15,080
- Kalau kalian melihat, bagaimana
- algoritma digunakan di Google...
- 197
- 00:14:15,650 --> 00:14:18,200
- teknologi ini lebih besar dari
- tahun '80.
- 198
- 00:14:20,000 --> 00:14:24,500
- Jadi manual ini hanya diberitahu
- angka 1, 2, 3...
- 199
- 00:14:24,550 --> 00:14:26,550
- dan tidak mempelajari berapa itu 1...
- 200
- 00:14:26,550 --> 00:14:29,640
- atau berapa itu 2, tapi mempelajari
- bedanya apa antara 1, 2.
- 201
- 00:14:30,180 --> 00:14:31,600
- Begitulah komputasi...
- 202
- 00:14:32,260 --> 00:14:35,400
- Setengah dekade terakhir,
- kami memasukkan progres cepat ini...
- 203
- 00:14:35,400 --> 00:14:37,400
- ke dalam pola yang disempurnakan.
- 204
- 00:14:38,140 --> 00:14:40,800
- Bagusnya dari KB yang
- sudah lama disempurnakan...
- 205
- 00:14:41,110 --> 00:14:43,800
- adalah saat kita ingin komputer...
- 206
- 00:14:43,900 --> 00:14:46,350
- untuk bermain catur.
- 207
- 00:14:46,610 --> 00:14:50,700
- Menurut paradigma lama, kita tinggal
- beritahu saja yang harus dilakukan.
- 208
- 00:14:54,250 --> 00:14:57,040
- Ini adalah Jeopardy!
- 209
- 00:14:59,320 --> 00:15:01,790
- Tantangan IBM.
- 210
- 00:15:02,850 --> 00:15:05,650
- Saat ini belum ada yang berpikir
- kalau mesin...
- 211
- 00:15:05,650 --> 00:15:09,150
- memiliki presisi, kepercayaan diri,
- dan kecepatan...
- 212
- 00:15:09,170 --> 00:15:11,300
- untuk bermain Jeopardy
- melawan manusia terbaik.
- 213
- 00:15:11,800 --> 00:15:13,840
- Mari kita main Jeopardy.
- 214
- 00:15:15,300 --> 00:15:18,350
- Empat kata, besi yang menempel
- di tapak kuda?
- 215
- 00:15:18,640 --> 00:15:20,190
- - Whatson?
- - 'patu?
- 216
- 00:15:20,190 --> 00:15:21,700
- Anda benar, silakan pilih.
- 217
- 00:15:21,700 --> 00:15:24,700
- Karakter APB senilai $800.
- 218
- 00:15:24,820 --> 00:15:26,990
- Jawablah, Daily Double.
- 219
- 00:15:27,990 --> 00:15:31,410
- Watson tahu, karena membaca Wikipedia...
- 220
- 00:15:31,490 --> 00:15:34,300
- sebanyak 200 juta halaman,
- dalam bahasanya.
- 221
- 00:15:34,450 --> 00:15:37,660
- Andi tidak bisa memrogram bagaimana
- dunia bergerak.
- 222
- 00:15:38,380 --> 00:15:40,500
- Mesin belajarnya lewat membaca.
- 223
- 00:15:40,500 --> 00:15:41,950
- Kembali ke Watson.
- 224
- 00:15:41,950 --> 00:15:43,210
- Siapa Bram Stoker?
- 225
- 00:15:43,210 --> 00:15:45,210
- Dan lihatlah hasilnya!
- 226
- 00:15:46,050 --> 00:15:48,960
- Halo, $17.973.
- 227
- 00:15:48,960 --> 00:15:50,850
- $41,413.
- 228
- 00:15:50,850 --> 00:15:53,100
- Total dari kemarin $77...
- 229
- 00:15:53,100 --> 00:15:56,300
- Watson sudah dilatih
- untuk membaca banyak teks.
- 230
- 00:15:56,510 --> 00:15:59,400
- Tapi Anda tidak akan
- memahami bagaimananya.
- 231
- 00:15:59,640 --> 00:16:02,440
- Ia tidak tahu air bisa membuat basah
- walau ia sentuh...
- 232
- 00:16:02,440 --> 00:16:05,310
- dan tidak sama cara dia melihat dunia
- dengan kita.
- 233
- 00:16:06,020 --> 00:16:08,730
- Bahasa KB saat ini,
- tidaklah...
- 234
- 00:16:08,900 --> 00:16:11,250
- berdasarkan bagaimana dunia bergerak.
- 235
- 00:16:11,450 --> 00:16:15,100
- Tapi hanya melihat kata yang muncul...
- 236
- 00:16:15,100 --> 00:16:17,100
- mengenai konteks dalam kata lain.
- 237
- 00:16:18,120 --> 00:16:21,330
- David Ferucci pengembang Watson.
- Lalu ada yang bertanya.
- 238
- 00:16:21,500 --> 00:16:23,000
- "Apa Watson berpikir?"
- 239
- 00:16:23,370 --> 00:16:25,800
- Lalu dia jawab,
- "Apa kapal selam menyelam?"
- 240
- 00:16:27,000 --> 00:16:29,800
- Yang dia maksud adalah,
- dalam pembuatan kapal selam...
- 241
- 00:16:29,800 --> 00:16:32,250
- ia pinjam prinsip dasar ikan berenang.
- 242
- 00:16:32,800 --> 00:16:37,300
- Tapi kapal selam berenang lebih cepat,
- daripada ikan tercepat.
- 243
- 00:16:39,700 --> 00:16:42,110
- Menangnya Watson dalam
- Jeopardy, adalah...
- 244
- 00:16:42,110 --> 00:16:44,940
- tanda perkembangan signifikan
- dalam sejarah KB.
- 245
- 00:16:46,400 --> 00:16:49,000
- Kita hanya terkesan,
- karena mesin itu hebat sekali.
- 246
- 00:16:49,000 --> 00:16:51,400
- Saya lebih terkesan,
- karena komputer...
- 247
- 00:16:51,400 --> 00:16:54,070
- mengalahkan manusia, dalam hal
- yang dikuasai manusia.
- 248
- 00:16:54,900 --> 00:16:56,750
- Beginilah kami membuat progres.
- 249
- 00:16:57,910 --> 00:17:00,500
- Di awal Google Brain Project...
- 250
- 00:17:00,500 --> 00:17:03,200
- saya memberi tim saya
- instruksi sederhana,
- 251
- 00:17:03,400 --> 00:17:05,540
- "Rakit jaringan neural yang terbesar,
- 252
- 00:17:05,540 --> 00:17:07,540
- dari ribuan komputer.
- 253
- 00:17:08,000 --> 00:17:11,300
- Jaringan neural merupakan simulasi
- bagaimana otak bekerja.
- 254
- 00:17:12,100 --> 00:17:14,130
- Sangan probabilistik, tapi...
- 255
- 00:17:14,130 --> 00:17:16,130
- sangat relevan dengan kontekstual.
- 256
- 00:17:16,700 --> 00:17:20,100
- Di dalam otak terdapat neuron
- yang terhubung dengan ribuan neuron...
- 257
- 00:17:20,100 --> 00:17:22,350
- dan terdapat jalur yang terbentuk...
- 258
- 00:17:22,350 --> 00:17:24,350
- berdasarkan apa yang otak butuhkan.
- 259
- 00:17:24,600 --> 00:17:27,750
- Ketika bayi mencoba dan berhasil,
- maka ada hadiah...
- 260
- 00:17:28,750 --> 00:17:31,750
- dan jalur yang membantu suksesnya,
- mengeras.
- 261
- 00:17:32,200 --> 00:17:34,650
- Kalau gagal, jalur tersebut melemah...
- 262
- 00:17:34,650 --> 00:17:38,400
- jadi setrusnya, otak akan terasah
- supaya menguasai yang ada di sekitar.
- 263
- 00:17:40,350 --> 00:17:42,900
- Apakah mesin mulai bisa
- belajar sendiri?
- 264
- 00:17:43,120 --> 00:17:44,370
- Inikah maksud Deep Learning?
- 265
- 00:17:44,370 --> 00:17:47,120
- Deep Learning dengan Jaringan Neural
- tidak jauh beda.
- 266
- 00:17:48,500 --> 00:17:49,900
- Deep Learning...
- 267
- 00:17:50,450 --> 00:17:52,500
- itu merupakan pendekatan yang beda.
- 268
- 00:17:52,500 --> 00:17:54,500
- Komputer belajar seperti anak kecil.
- 269
- 00:17:55,150 --> 00:17:57,700
- Semakin banyak data, dan akhirnya...
- 270
- 00:17:58,150 --> 00:17:59,900
- semakin tahu bagaimana cara.
- 271
- 00:18:00,180 --> 00:18:02,700
- Komputer akan semakin
- pintar dan pintar...
- 272
- 00:18:02,930 --> 00:18:04,640
- dan semakin berpengalaman.
- 273
- 00:18:05,850 --> 00:18:09,350
- Bayangkan saja, dalam jaringan neural
- terdapat ribuan komputer.
- 274
- 00:18:09,550 --> 00:18:11,300
- Awalnya tidak bisa apa-apa...
- 275
- 00:18:11,300 --> 00:18:14,360
- lalu kita buat ia menonton YouTube seminggu.
- 276
- 00:18:36,950 --> 00:18:39,470
- Tanpa berhenti menonton
- dalam seminggu, apa yang terjadi?
- 277
- 00:18:39,760 --> 00:18:42,300
- Kami berhipotesa ia akan
- mendeteksi...
- 278
- 00:18:42,300 --> 00:18:44,300
- hal umum yang ada di video...
- 279
- 00:18:44,300 --> 00:18:47,750
- dan kita tahu wajah orang
- sering muncul dalam video...
- 280
- 00:18:47,750 --> 00:18:51,440
- jadi kita akan tahu kinerja neuron yang
- belajar mendeteksi wajah.
- 281
- 00:18:52,450 --> 00:18:55,310
- Tinggalin gue sendiri!
- 282
- 00:18:55,900 --> 00:18:58,200
- Lalu apa lagi yang sering
- muncul dalam video.
- 283
- 00:19:00,300 --> 00:19:03,110
- Rasa terkesan kita itu adalah
- hasil neuron...
- 284
- 00:19:03,110 --> 00:19:04,530
- saat mendetiksi kucing.
- 285
- 00:19:14,900 --> 00:19:16,920
- Saya teringat saat
- "melihat untuk mengenal."
- 286
- 00:19:16,920 --> 00:19:19,800
- "Wow, itu kucing. Oke, hebat sekali.
- 287
- 00:19:23,500 --> 00:19:26,100
- Tidaklah berbahaya kalau Anda
- memikirkan masa depan.
- 288
- 00:19:26,100 --> 00:19:28,100
- Sepertinya tidaklah berbahaya
- dan menakutkan.
- 289
- 00:19:29,550 --> 00:19:32,060
- Tapi kami teori
- arsitektur yang akan...
- 290
- 00:19:32,100 --> 00:19:34,880
- jauh melebihi kita dan
- membawa hasil yang besar.
- 291
- 00:19:34,880 --> 00:19:36,440
- Dan itu tidak akan ramah
- dan bertele-tele.
- 292
- 00:19:37,350 --> 00:19:39,450
- Saya rasa dalam
- lima tahun ke depan...
- 293
- 00:19:39,450 --> 00:19:41,450
- kalian akan melihat
- sistem komputer...
- 294
- 00:19:41,450 --> 00:19:44,600
- yang akan bisa belajar sendiri.
- 295
- 00:19:45,200 --> 00:19:48,830
- Bagaimana ia memahami,
- bagaimana membuat pemahaman.
- 296
- 00:19:49,000 --> 00:19:51,400
- Tidak seperti kinerja otak manusia.
- 297
- 00:19:54,050 --> 00:19:57,000
- Apa pun nama menu makan siang ini,
- sangat lezat.
- 298
- 00:19:57,400 --> 00:19:59,850
- Salah satu sintetis ciptaan Robby...
- 299
- 00:19:59,850 --> 00:20:01,550
- Dia juru masak Anda?
- 300
- 00:20:01,680 --> 00:20:03,680
- Walaupun dibuat dari
- logam mentah.
- 301
- 00:20:04,430 --> 00:20:05,850
- Sini Robby.
- 302
- 00:20:06,680 --> 00:20:09,560
- Akan kutunjukkan bagaimana
- cara kerjanya.
- 303
- 00:20:10,950 --> 00:20:14,550
- Pertama masukkan sampel
- makanan ke celah ini.
- 304
- 00:20:15,300 --> 00:20:18,900
- Di sini tempat bahan kimia tersimpan,
- untuk analisa...
- 305
- 00:20:18,900 --> 00:20:21,500
- setelah itu ia bisa memproduksi ulang,
- molekul yang sama...
- 306
- 00:20:21,500 --> 00:20:23,200
- dalam banyak bentuk
- dan jumlah.
- 307
- 00:20:23,200 --> 00:20:24,400
- Seperti istri idaman saja.
- 308
- 00:20:25,700 --> 00:20:29,170
- Lihat Baxter, kategori robot baru
- yang revolusioner...
- 309
- 00:20:29,170 --> 00:20:30,330
- dengan akal sehat.
- 310
- 00:20:31,500 --> 00:20:35,450
- Baxter adalah contoh bagus,
- dalam kompetisi mesin.
- 311
- 00:20:37,400 --> 00:20:39,340
- Baxter dapat melakukan yang...
- 312
- 00:20:39,340 --> 00:20:40,670
- tangan kita lakukan.
- 313
- 00:20:42,550 --> 00:20:47,180
- Harga Baxter sama dengan
- harga buruh selama setahun.
- 314
- 00:20:47,470 --> 00:20:51,310
- Satu Baxter tidak hanya
- mengurangi 1 buruh, tapi 3...
- 315
- 00:20:51,310 --> 00:20:54,200
- karena ia tidak bisa lelah,
- tidak akan istirahat.
- 316
- 00:20:55,350 --> 00:20:59,320
- Ini yang akan pertama kali kita lihat,
- dalam dunia kerja.
- 317
- 00:20:59,320 --> 00:21:02,320
- Ia akan diluncurkan segera, secepatnya, murah,
- karena buatan mesin.
- 318
- 00:21:04,550 --> 00:21:08,830
- Kemampuan kita untuk berlangsung
- sangat terbatas, dibanding mesin
- 319
- 00:21:10,000 --> 00:21:13,290
- Saat ini sudah ada terobosan besar
- dalam Uber dan Lyft...
- 320
- 00:21:13,290 --> 00:21:17,540
- yang membuat transportasi lebih murah,
- dan membebaskan kita dari transportasi.
- 321
- 00:21:17,850 --> 00:21:20,900
- Langkah selanjutnya, akan banyak beredar
- mobil tanpa sopir...
- 322
- 00:21:21,000 --> 00:21:23,170
- lalu sopir Uber dan Lyft harus
- mencari hal baru.
- 323
- 00:21:25,800 --> 00:21:29,640
- Ada 4 juta supir profesional di
- United States...
- 324
- 00:21:29,640 --> 00:21:31,500
- merekan akan segera menganggur.
- 325
- 00:21:31,500 --> 00:21:33,850
- Tujuh juta orang yang bekerja
- menginput data...
- 326
- 00:21:33,850 --> 00:21:35,850
- akan menjadi kehilangan pekerjaan.
- 327
- 00:21:37,190 --> 00:21:40,190
- Pekerjaan itu bukan
- hanya karena uang, benar?
- 328
- 00:21:40,300 --> 00:21:43,250
- Dalam level biologi,
- kerjaan itu pencarian tujuan hidup,
- 329
- 00:21:43,250 --> 00:21:45,250
- lalu menjadi bakal definisi
- apa itu hidup.
- 330
- 00:21:45,250 --> 00:21:47,910
- Ketika pekerjaan hilang,
- dalam sebuah masyarakat...
- 331
- 00:21:48,150 --> 00:21:50,620
- tidak lama akan terjadi
- kekerasan.
- 332
- 00:22:00,050 --> 00:22:02,850
- Kita ini berada dalam jurang pemisah
- antara yang kaya dan miskin...
- 333
- 00:22:02,850 --> 00:22:04,600
- dan KB dan otomation akan
- menimbulkan...
- 334
- 00:22:04,600 --> 00:22:07,010
- jurang yang lebih besar lagi
- antara yang punya dan tidak.
- 335
- 00:22:08,500 --> 00:22:11,970
- Saat ini hanya ada pekerjaan untuk
- kelas menengah dam kerah putih.
- 336
- 00:22:12,720 --> 00:22:15,650
- Watson dari IBM melakukan
- analisa bisnis mingguan.
- 337
- 00:22:15,650 --> 00:22:19,210
- Yang dulu kita harus bayar $300
- untuk mendatangkan analis bisnis.
- 338
- 00:22:20,480 --> 00:22:24,990
- Hari ini, mahasiswa ingin menjadi
- dokter, akuntan dan jurnalis.
- 339
- 00:22:24,990 --> 00:22:28,450
- Belum tentu, apa akan ada
- pekerjaan untuk Anda.
- 340
- 00:22:29,280 --> 00:22:32,550
- Kalau ada seseorang berencana sebagai
- radiologis selama 40 tahun.
- 341
- 00:22:32,550 --> 00:22:34,240
- Hanya membaca gambar.
- 342
- 00:22:34,240 --> 00:22:36,750
- Saya rasa itu adalah tantangan,
- untuk lulusan baru saat ini.
- 343
- 00:22:56,100 --> 00:22:58,560
- Hari ini kita akan membutuhkan
- bantuan robot.
- 344
- 00:22:59,520 --> 00:23:02,600
- Robot Da Vinci saat ini sudah
- digunakan...
- 345
- 00:23:02,600 --> 00:23:04,750
- oleh berbagai ahli bedah...
- 346
- 00:23:04,750 --> 00:23:07,940
- karena akurasinya dan
- kemampuannya untuk...
- 347
- 00:23:07,940 --> 00:23:10,950
- menghindari fluktuasi yang
- tidak diinginkan...
- 348
- 00:23:10,950 --> 00:23:12,950
- yang biasa terjadi pada
- tangan manusia.
- 349
- 00:23:23,220 --> 00:23:26,550
- Siapa pun yang melihat ini
- pasti akan mengetahui kehebatan alat ini.
- 350
- 00:23:30,720 --> 00:23:34,500
- Dari lensa, Anda akan melihat
- tangan kecil...
- 351
- 00:23:34,510 --> 00:23:36,750
- memegang ovarium wanita.
- 352
- 00:23:36,750 --> 00:23:41,390
- Manusia sangat bergantung,
- dengan tangan robot ini.
- 353
- 00:23:42,500 --> 00:23:46,650
- Orang-orang bilang kalau ini masa depan
- padahal ini bukan...
- 354
- 00:23:46,650 --> 00:23:48,230
- ini adalah masa kini.
- 355
- 00:23:50,200 --> 00:23:52,280
- Asal Anda tahu saja tentang
- robot bedah...
- 356
- 00:23:52,280 --> 00:23:55,080
- kami masukkan banyak hal
- cerdas...
- 357
- 00:23:55,080 --> 00:23:58,290
- seiring waktu kami masukkan
- hal yang lebih cerdas dalam sistemnya...
- 358
- 00:23:58,290 --> 00:24:02,200
- robot bedah belajar dari
- setiap robot bedah lainnya...
- 359
- 00:24:02,200 --> 00:24:05,800
- ia mempelajari apa yang
- harus dilakukan dan yang tidak...
- 360
- 00:24:05,800 --> 00:24:09,800
- dan akhirnya robot karena rutin membedah
- akan bisa melakukan...
- 361
- 00:24:09,800 --> 00:24:11,800
- pembedahan sendiri,
- 362
- 00:24:12,150 --> 00:24:14,180
- atau di bawah pengawasan manusia.
- 363
- 00:24:14,430 --> 00:24:16,600
- Biasanya saya menangani
- 150 kasus...
- 364
- 00:24:16,600 --> 00:24:18,600
- masalah rektum sendirian.
- 365
- 00:24:18,600 --> 00:24:22,950
- Dan sekarang,
- saya dibantu robot.
- 366
- 00:24:23,140 --> 00:24:26,150
- Saya menangani kasus pembedahan
- selama setahun...
- 367
- 00:24:26,150 --> 00:24:28,320
- saya merasa tidak nyaman.
- 368
- 00:24:28,320 --> 00:24:32,320
- Tentu saya tidak nyaman,
- karena saya tidak suka membedah lagi.
- 369
- 00:24:35,050 --> 00:24:38,150
- Karena kami terus mengembangkan
- dan menciptakannya...
- 370
- 00:24:38,150 --> 00:24:42,350
- kami menjadi seperti
- budak teknologi.
- 371
- 00:24:42,800 --> 00:24:45,500
- Tapi kita tidak bisa kembali.
- 372
- 00:24:50,250 --> 00:24:52,760
- Mesin semakin membutuhkan
- byte yang lebih besar...
- 373
- 00:24:52,760 --> 00:24:57,010
- diluar keahlian kita,
- dalam hal meningkatkan keahlian.
- 374
- 00:24:57,010 --> 00:25:00,560
- Kita harus berlari lebih cepat lagi
- supaya tetap di atas mesin.
- 375
- 00:25:02,550 --> 00:25:05,300
- - Bagaimana penampilanku?
- - Cakap.
- 376
- 00:25:09,850 --> 00:25:13,600
- - Kau tertarik denganku?
- - Apa?
- 377
- 00:25:14,050 --> 00:25:16,350
- Tubuhmu menandakan ya.
- 378
- 00:25:18,100 --> 00:25:19,400
- - Benarkah?
- - Ya.
- 379
- 00:25:20,450 --> 00:25:22,450
- Inilah arah masa depan kita...
- 380
- 00:25:22,450 --> 00:25:25,750
- Kita ingin mendesain teman kita.
- 381
- 00:25:26,450 --> 00:25:29,130
- Kita ingin wajah yang
- memanjakan mata.
- 382
- 00:25:29,130 --> 00:25:33,850
- Karena ia mudah memain-mainkan
- emosi kita.
- 383
- 00:25:34,050 --> 00:25:37,600
- Kita tidaklah rumit,
- cuma butuh rangsangan.
- 384
- 00:25:38,000 --> 00:25:40,600
- Saya bisa mengubah Anda seperti saya
- hanya dengan banyak senyum.
- 385
- 00:25:42,900 --> 00:25:45,480
- KB akan luar biasa sekali
- dalam memanipulasi kita.
- 386
- 00:25:54,600 --> 00:25:57,780
- Anda mengembangkan
- teknologi yang...
- 387
- 00:25:57,780 --> 00:25:59,950
- dapat merasakan
- perasaan manusia.
- 388
- 00:25:59,950 --> 00:26:03,250
- Kami mengembangkan teknologi
- yang membaca ekspresi wajah...
- 389
- 00:26:03,250 --> 00:26:06,080
- dan memetakan semuanya ke
- setiap keadaan emosi.
- 390
- 00:26:06,350 --> 00:26:08,250
- Lima belas tahun lalu, saya...
- 391
- 00:26:08,260 --> 00:26:11,300
- menyelesaikan S1 di Ilmu Komputer,
- 392
- 00:26:11,300 --> 00:26:14,850
- dan saya sadar kalau saya
- banyak menghabiskan waktu...
- 393
- 00:26:14,850 --> 00:26:17,550
- berinteraksi dengan laptop
- dan gawai saya.
- 394
- 00:26:17,550 --> 00:26:21,800
- Padahal gawai ini tidaklah tahu
- bagaimana perasaan saya.
- 395
- 00:26:23,400 --> 00:26:26,650
- Saya mulai berpikir,
- bagaimana kalau gawai ini bisa merasakan...
- 396
- 00:26:26,650 --> 00:26:28,810
- kalau saya sedang stres dan
- mengalami hari yang buruk.
- 397
- 00:26:29,150 --> 00:26:31,150
- apa yang akan terjadi.
- 398
- 00:26:32,400 --> 00:26:35,450
- Hai anak-anak,
- bagaimana kabarnya?
- 399
- 00:26:35,750 --> 00:26:37,000
- Saya boleh memeluk?
- 400
- 00:26:37,700 --> 00:26:40,550
- Kami buat anak-anak
- interaksi dengan teknologi...
- 401
- 00:26:40,550 --> 00:26:42,600
- Masih banyak yang perlu
- dikembangkan.
- 402
- 00:26:42,600 --> 00:26:44,300
- Semuanya sangan mengagumkan.
- 403
- 00:26:44,300 --> 00:26:46,700
- - Siapa yang suka robot?
- - Aku!
- 404
- 00:26:46,700 --> 00:26:48,500
- Siapa yang mau punya robot di rumah?
- 405
- 00:26:48,500 --> 00:26:50,500
- Mau kalian mau apakan?
- 406
- 00:26:51,210 --> 00:26:53,300
- Aku ingin menggunakannya untuk...
- 407
- 00:26:53,300 --> 00:26:56,000
- memberi mama soal MTK
- yang sulit.
- 408
- 00:26:56,000 --> 00:26:58,840
- - Oke, bagaimana denganmu Theo?
- - Aku akan...
- 409
- 00:26:59,430 --> 00:27:02,100
- menggunakannya untuk
- menakuti orang.
- 410
- 00:27:02,220 --> 00:27:04,390
- Baiklah sekarang mulai dari
- senyum.
- 411
- 00:27:05,270 --> 00:27:05,890
- Bagus.
- 412
- 00:27:06,450 --> 00:27:08,000
- Cemberut.
- 413
- 00:27:08,700 --> 00:27:09,480
- Bagus.
- 414
- 00:27:09,480 --> 00:27:10,950
- Alisnya diangkat.
- 415
- 00:27:10,950 --> 00:27:14,940
- Teknologi ini selalu
- berada di sekitar mereka.
- 416
- 00:27:15,320 --> 00:27:17,690
- Mereka berharap punya robot
- di rumah...
- 417
- 00:27:17,690 --> 00:27:21,000
- dan mereka juga berharap robotnya
- pandai bersosialisasi.
- 418
- 00:27:22,120 --> 00:27:25,070
- Apa yang membuat robot pintar?
- 419
- 00:27:25,310 --> 00:27:28,800
- Suruh mereka ikut kelas MTK atau Biologi.
- 420
- 00:27:29,550 --> 00:27:32,000
- Kupikir ia harus dilatih.
- 421
- 00:27:32,000 --> 00:27:34,900
- Baiklah, semua ke sini.
- 422
- 00:27:35,100 --> 00:27:39,220
- Kalau kalian senyum,
- robot ini akan mendekati kalian.
- 423
- 00:27:39,220 --> 00:27:42,930
- Ia mendekat, ia mendekat,
- lihat.
- 424
- 00:27:42,930 --> 00:27:45,100
- Kalau kalian marah,
- robotnya lari.
- 425
- 00:27:45,220 --> 00:27:46,350
- Robotnya lari!
- 426
- 00:27:46,350 --> 00:27:48,350
- - Oh, Bagus sekali.
- - Hebat!
- 427
- 00:27:49,020 --> 00:27:52,350
- Kami latih komputer supaya
- membaca dan mengenal emosi.
- 428
- 00:27:52,520 --> 00:27:54,520
- Siap, sedia, mulai!
- 429
- 00:27:54,850 --> 00:27:57,300
- Sejauh ini responnya sangat
- mengagumkan.
- 430
- 00:27:57,300 --> 00:27:59,500
- Orang-orang mengintegrasikan ini ke
- aplikasi kesehatan,
- 431
- 00:27:59,500 --> 00:28:01,650
- aplikasi meditasi, robot,
- 432
- 00:28:01,650 --> 00:28:03,160
- mobil.
- 433
- 00:28:04,450 --> 00:28:06,800
- Kita akan melihat bagaimana hasilnya.
- 434
- 00:28:06,800 --> 00:28:08,800
- Pergi sana!
- 435
- 00:28:09,300 --> 00:28:11,410
- Robot bisa dipasang KB.
- 436
- 00:28:11,410 --> 00:28:14,200
- Robot adalah wujud fisiknya...
- 437
- 00:28:14,200 --> 00:28:16,200
- dan KB adalah otaknya.
- 438
- 00:28:16,630 --> 00:28:19,850
- Otaknya terbentuk dalam
- sistem yang berbasis software.
- 439
- 00:28:19,850 --> 00:28:21,800
- Yang tentunya tidak memiliki
- wujud fisik.
- 440
- 00:28:22,350 --> 00:28:25,010
- Robot bisa ada tanpa KB.
- 441
- 00:28:25,010 --> 00:28:27,010
- Sudah ada banyak sekali.
- 442
- 00:28:27,970 --> 00:28:31,550
- Tapi robot dumb bisa
- cerdas dalam semalam.
- 443
- 00:28:31,550 --> 00:28:33,980
- Kalau dipasang software dan
- sensor yang tepat.
- 444
- 00:28:35,250 --> 00:28:38,400
- TIdak banyak, kecuali hanya memasukkan
- gerakan ke objek yang tidak bergerak.
- 445
- 00:28:38,520 --> 00:28:40,150
- Terhadap mesin,
- tidak ada bedanya dengan...
- 446
- 00:28:40,150 --> 00:28:43,150
- membesarkan anak,
- atau surogate.
- 447
- 00:28:45,400 --> 00:28:47,990
- Dan, akan kami tanggung
- resikonya.
- 448
- 00:29:08,600 --> 00:29:11,140
- Oke, selamat datang di ATR.
- 449
- 00:29:18,800 --> 00:29:21,850
- Tujuan utama saya adalah
- membuat robot humanoid yang...
- 450
- 00:29:21,850 --> 00:29:24,860
- memiliki niat dan hasrat
- seperti manusia.
- 451
- 00:29:36,000 --> 00:29:39,000
- Robot ini diberi nama Erika.
- 452
- 00:29:39,540 --> 00:29:44,400
- Erika adalah robot humanoid yang paling maju
- di dunia, yang saya lihat.
- 453
- 00:29:44,850 --> 00:29:47,510
- Hei Erika, coba
- menengok ke sini.
- 454
- 00:29:54,450 --> 00:29:57,690
- Robot bisa menjadi partner
- yang terbaik...
- 455
- 00:29:57,690 --> 00:30:01,150
- khususnya untuk lansia, anak-anak...
- 456
- 00:30:01,150 --> 00:30:03,150
- orang-orang cacat.
- 457
- 00:30:03,330 --> 00:30:06,750
- Saat kita bicara dengan robot,
- kita tidak punya batasan sosial...
- 458
- 00:30:06,750 --> 00:30:08,750
- yang membatasi kita.
- 459
- 00:30:09,160 --> 00:30:12,700
- Akhirnya, semua orang akan menerima...
- 460
- 00:30:12,700 --> 00:30:16,400
- Android sebagai teman kita
- atau partner.
- 461
- 00:30:16,960 --> 00:30:19,250
- Kami hanya berdasarkan
- keinginan sederhana...
- 462
- 00:30:19,250 --> 00:30:23,960
- dan Erika ingin dikenal,
- dan mengerjakan sisanya.
- 463
- 00:30:29,250 --> 00:30:33,150
- Kalau robot memiliki keinginan,
- berarti robot bisa mengerti...
- 464
- 00:30:33,150 --> 00:30:35,850
- keinginan orang lain.
- 465
- 00:30:44,050 --> 00:30:46,350
- Ini contoh, hubungan robot
- dengan orang...
- 466
- 00:30:46,350 --> 00:30:49,410
- dan menandakan kalau kami dekat,
- 467
- 00:30:49,410 --> 00:30:53,410
- Itu tandanya, kami bisa
- saling menyentuh.
- 468
- 00:30:56,830 --> 00:31:00,920
- Dalam membuat KB intinya
- adalah replika dari kita.
- 469
- 00:31:02,820 --> 00:31:05,150
- Saya pikir, kuncinya akan ditemukan...
- 470
- 00:31:05,150 --> 00:31:07,880
- ketika semua indera sudah direplika.
- 471
- 00:31:09,300 --> 00:31:10,880
- Penglihatan,
- 472
- 00:31:10,880 --> 00:31:12,880
- Peraba,
- 473
- 00:31:12,880 --> 00:31:14,470
- Penciuman,
- 474
- 00:31:14,470 --> 00:31:17,560
- ketika sudah direplika semua itu,
- maka muncul yang hidup.
- 475
- 00:31:27,450 --> 00:31:30,950
- Mesin-mesin yang sudah dibuat,
- hanyalah untuk mengerti kita...
- 476
- 00:31:32,900 --> 00:31:35,480
- Bagaimana kalau makhluk
- berbadan besi ini, bisa...
- 477
- 00:31:35,480 --> 00:31:37,300
- mengubah loyalitasnya,
- 478
- 00:31:37,300 --> 00:31:38,870
- mengubah keberaniannya,
- 479
- 00:31:38,870 --> 00:31:39,970
- mengubah egonya,
- 480
- 00:31:39,970 --> 00:31:41,970
- mengubah instingnya?
- 481
- 00:31:44,950 --> 00:31:48,300
- Orang awam tidak akan berpikiran
- kalau robot pembunuh itu ada.
- 482
- 00:31:48,300 --> 00:31:50,840
- Pasti mereka akan bilang,
- "Gak mungkin lah yaw."
- 483
- 00:31:50,840 --> 00:31:54,600
- Astaga, kami usahakan, tidak ada
- robot pembunuh.
- 484
- 00:31:56,850 --> 00:31:59,270
- Kalau sampai ada,
- berarti sudah terlambat.
- 485
- 00:32:05,050 --> 00:32:09,150
- Yang membuat saya kepikiran,
- sampai tidak bisa tidur adalah...
- 486
- 00:32:09,780 --> 00:32:12,080
- Pengembangan senjata otomatis.
- 487
- 00:32:27,850 --> 00:32:31,880
- Sampai saat ini, orang-orang
- khawatir dengan drone.
- 488
- 00:32:32,600 --> 00:32:34,700
- Seperti contohnya
- pesawat kendali remot.
- 489
- 00:32:39,650 --> 00:32:43,020
- Kalau kamera Drone ditambah
- dengan fitur KB...
- 490
- 00:32:43,020 --> 00:32:45,500
- merupakan sebuah batu loncatan...
- 491
- 00:32:45,500 --> 00:32:48,750
- untuk menjadi senjata autonomous,
- yang akan memilih targetnya sendiri...
- 492
- 00:32:48,750 --> 00:32:51,570
- lalu ia bisa meluncurkan misilnya sendiri.
- 493
- 00:33:12,550 --> 00:33:14,840
- Jadi, perkiraan kehidupan manusia...
- 494
- 00:33:14,840 --> 00:33:18,400
- kalau ada dalam pertempuran itu,
- hanya akan bertahan beberapa detik.
- 495
- 00:33:20,400 --> 00:33:23,550
- Dalam satu sudut, drone
- hanyalah fiksi ilmiah...
- 496
- 00:33:23,550 --> 00:33:27,050
- tapi saat ini, drone menjadi
- senjata yang lumrah dalam perang.
- 497
- 00:33:28,750 --> 00:33:32,600
- Sepuluh ribu lebih, dalam
- gudang senjata di US sendiri.
- 498
- 00:33:33,350 --> 00:33:37,750
- Tapi bukan hanya US,
- beberapa negara sudah mengoperasikan itu.
- 499
- 00:33:38,850 --> 00:33:40,550
- Pasti ada alasannya...
- 500
- 00:33:40,550 --> 00:33:44,250
- Buktinya mereka berani, membuat sesuatu
- yang paling penting dan sulit di dunia.
- 501
- 00:33:44,450 --> 00:33:47,470
- Dan KB akan diimplementasikan
- secepatnya.
- 502
- 00:33:50,650 --> 00:33:53,550
- Angkatan Udara, telah
- mendesain $400 miliyar program jet...
- 503
- 00:33:53,550 --> 00:33:55,550
- dan mengirim pilot ke udara.
- 504
- 00:33:56,130 --> 00:33:58,400
- Dan hanya $400 untuk KB...
- 505
- 00:33:58,400 --> 00:34:01,100
- yang didesain oleh beberapa mahasiswa
- yang baru lulus...
- 506
- 00:34:01,100 --> 00:34:03,270
- bisa mengalahkan pilot
- manusia terbaik.
- 507
- 00:34:03,270 --> 00:34:05,560
- Hanya dengan algoritma sederhana.
- 508
- 00:34:09,300 --> 00:34:13,000
- KB akan membuat perubahan besar
- dalam kemiliteran.
- 509
- 00:34:13,320 --> 00:34:16,320
- Seperti mesin dengan ruang bakar,
- telah mengubah zaman.
- 510
- 00:34:17,550 --> 00:34:21,050
- KB akan ada di setiap hal,
- yang ada di kemiliteran.
- 511
- 00:34:21,050 --> 00:34:24,660
- Dari konvoi tanpa sopir yang
- mengirim suplai logistik,
- 512
- 00:34:25,200 --> 00:34:28,500
- lalu drone tanpa pilot yang
- mengirim suplai obat-obatan,
- 513
- 00:34:28,500 --> 00:34:30,650
- lalu propaganda dalam komputer...
- 514
- 00:34:30,650 --> 00:34:33,050
- untuk mengambil hati dan
- pikiran masyarakat.
- 515
- 00:34:34,050 --> 00:34:36,110
- Inilah salah satu alasan KB...
- 516
- 00:34:36,110 --> 00:34:38,250
- dan siapa pun yang memiliki
- KB terbaik...
- 517
- 00:34:38,250 --> 00:34:40,900
- mungkin akan memegang
- dominasi di planet ini.
- 518
- 00:34:45,410 --> 00:34:49,230
- Ada sebuah pendapat, di awal abad 21
- seluruh umat manusia akan...
- 519
- 00:34:49,230 --> 00:34:51,000
- bersatu karena
- sebuah keberhasilan.
- 520
- 00:34:51,000 --> 00:34:55,100
- Kita mengagumi kehebatan kita
- karena telah melahirkan...
- 521
- 00:34:55,300 --> 00:34:57,360
- - KB.
- - KB?
- 522
- 00:34:58,800 --> 00:35:00,350
- Maksudmu Kecerdasan Buatan?
- 523
- 00:35:00,350 --> 00:35:04,870
- Kesadaran singular yang bangkit,
- dalam seluruh ras mesin.
- 524
- 00:35:05,800 --> 00:35:09,120
- Kita tidak tahu siapa yang
- menyerang duluan. Kita atau mereka?
- 525
- 00:35:09,550 --> 00:35:12,600
- Dan kitalah yang telah
- menghanguskan langit.
- 526
- 00:35:14,850 --> 00:35:16,540
- Fiksi ilmiah memiliki sejarah...
- 527
- 00:35:16,540 --> 00:35:19,800
- yang tidak hanya memprediksi masa depan,
- tapi membentuk masa depan.
- 528
- 00:35:26,650 --> 00:35:31,540
- Tulisan Arthur Conan Doyle
- sebelum PD 1, memperingatkan...
- 529
- 00:35:31,540 --> 00:35:36,650
- kalau kapal selam, akan digunakan
- untuk menyingkirkan blokade warga sipil.
- 530
- 00:35:37,850 --> 00:35:40,250
- Pada saat karyanya terbit...
- 531
- 00:35:40,250 --> 00:35:43,300
- para Angkatan Laut menertawakan
- Arthur Conan Doyle...
- 532
- 00:35:43,300 --> 00:35:46,040
- karena idenya yang absurd,
- kalau kapal selam...
- 533
- 00:35:46,040 --> 00:35:48,370
- bisa sangat berguna dalam perang.
- 534
- 00:35:53,750 --> 00:35:55,950
- Yang dapat dilihat
- dari sejarah ialah...
- 535
- 00:35:55,950 --> 00:35:59,740
- sikap kita terhadap teknologi,
- juga etika...
- 536
- 00:35:59,740 --> 00:36:01,740
- sangat tergantung pada konteks.
- 537
- 00:36:01,740 --> 00:36:04,740
- Contohnya kapal selam,
- negara seperti...
- 538
- 00:36:04,740 --> 00:36:07,700
- Britania Raya dan United States
- ketakutan...
- 539
- 00:36:07,700 --> 00:36:09,180
- menggunakan kapal selam.
- 540
- 00:36:09,700 --> 00:36:13,060
- Hanya karena Jerman menggunakan
- kapal selam untuk menyerang...
- 541
- 00:36:13,060 --> 00:36:16,700
- United States menjadikan itu
- sebagai alasan ikut PD 1.
- 542
- 00:36:18,600 --> 00:36:20,800
- Majukan waktunya.
- 543
- 00:36:20,800 --> 00:36:25,350
- USA tiba-tiba dan tanpa sebab
- diserang...
- 544
- 00:36:25,350 --> 00:36:27,950
- oleh negara Kekaisaran Jepang.
- 545
- 00:36:28,290 --> 00:36:30,290
- Lima jam setelah Pearl Harbor...
- 546
- 00:36:30,870 --> 00:36:35,000
- langsung ditetapkan perintah,
- supaya kapal selam bebas menyerbu...
- 547
- 00:36:35,000 --> 00:36:36,800
- melawan pihak Jepang.
- 548
- 00:36:39,750 --> 00:36:42,450
- Oleh karena itu Arthur Conan Doyle benar.
- 549
- 00:36:44,150 --> 00:36:46,720
- Itulah kehebatan fiksi ilmiah.
- 550
- 00:36:46,720 --> 00:36:48,900
- Kebohongan yang mengatakan
- kebenaran.
- 551
- 00:36:48,900 --> 00:36:52,230
- Para eksekutif, dengan bangga
- saya perkenalkan...
- 552
- 00:36:52,230 --> 00:36:54,600
- penegak hukum dari
- masa depan.
- 553
- 00:36:54,600 --> 00:36:56,600
- ED-209.
- 554
- 00:37:03,650 --> 00:37:05,800
- Ini bukanlah pertanyaan fiksi ilmiah,
- 555
- 00:37:05,800 --> 00:37:09,290
- tapi apa berikutnya,
- apa yang akan terjadi sekarang.
- 556
- 00:37:13,800 --> 00:37:17,250
- Peran sistem Kecerdasan
- berkembang sangat pesat...
- 557
- 00:37:17,250 --> 00:37:18,840
- mengenai masalah perang.
- 558
- 00:37:19,200 --> 00:37:22,350
- Khalayak berlomba demi
- dunia tanpa manusia.
- 559
- 00:37:26,350 --> 00:37:29,600
- Saat ini, keamanan negara
- dengan jelas melarang...
- 560
- 00:37:29,600 --> 00:37:32,180
- menciptakan kendaraan
- bersenjata penuh autonomous.
- 561
- 00:37:32,600 --> 00:37:35,900
- Tidak semua orang memegang
- nilai tersebut.
- 562
- 00:37:35,900 --> 00:37:39,600
- Saat Cina dan Rusia mulai
- mengembangkan kendaraan...
- 563
- 00:37:39,940 --> 00:37:42,070
- autonomous yang dapat
- menyerang dan membunuh.
- 564
- 00:37:43,070 --> 00:37:45,450
- Apa yang harus kita lakukan?
- 565
- 00:37:49,950 --> 00:37:52,450
- Kita tidak bisa asal
- membuat senjata autonomous...
- 566
- 00:37:52,450 --> 00:37:55,000
- demi dominasi militer kita,
- tapi tidak ada orang pun...
- 567
- 00:37:55,000 --> 00:37:56,040
- yang menggunakan itu.
- 568
- 00:37:56,670 --> 00:37:59,900
- Kalau senjata ini diciptakan,
- pasti digunakan untuk menyerang...
- 569
- 00:38:00,420 --> 00:38:03,000
- populasi manusia dalam
- jumlah besar.
- 570
- 00:38:12,450 --> 00:38:13,840
- Senjata autonomous itu...
- 571
- 00:38:13,840 --> 00:38:15,840
- sudah sejatinya menjadi
- senjata pemusnah massal...
- 572
- 00:38:15,840 --> 00:38:19,650
- karena tidak memerlukan manusia
- supaya terarah atau ditempatkan.
- 573
- 00:38:19,650 --> 00:38:21,850
- Hanya butuh satu orang...
- 574
- 00:38:21,850 --> 00:38:23,980
- untuk menulis programnya.
- 575
- 00:38:25,650 --> 00:38:27,400
- Itulah yang menjadi...
- 576
- 00:38:27,400 --> 00:38:30,000
- kerumitan dalam bidang ini,
- 577
- 00:38:30,000 --> 00:38:34,000
- karena ini keren, penting,
- mengagumkan...
- 578
- 00:38:34,350 --> 00:38:38,170
- tapi juga menakutkan.
- Ini semua masalah kepercayaan.
- 579
- 00:38:41,950 --> 00:38:44,500
- Ini surat terbuka untuk KB...
- 580
- 00:38:44,500 --> 00:38:47,100
- ditanda tangani oleh banyak
- saintis ternama.
- 581
- 00:38:47,100 --> 00:38:50,590
- Apa yang mereka inginkan?
- Ban penggunaan senjata autonomous.
- 582
- 00:38:50,590 --> 00:38:52,200
- Penulis menyatakan,
- 583
- 00:38:52,200 --> 00:38:56,650
- "Senjata autonomous adalah
- revolusi ketiga perang."
- 584
- 00:38:56,650 --> 00:38:59,060
- Ribuan spesialis KB
- bersuara,
- 585
- 00:38:59,060 --> 00:39:01,650
- supaya dilarang semua
- robot pembunuh.
- 586
- 00:39:02,190 --> 00:39:04,190
- Surat terbuka ini,
- sebenarnya mengatakan,
- 587
- 00:39:04,190 --> 00:39:05,780
- supaya kami mengubah
- tujuan kami...
- 588
- 00:39:06,200 --> 00:39:07,780
- dalam lingkup KB.
- 589
- 00:39:07,780 --> 00:39:11,550
- Supaya tidak membuat Kecerdasan
- yang tidak terarah...
- 590
- 00:39:11,550 --> 00:39:13,550
- menjadi Kecerdasan yang
- menguntungkan.
- 591
- 00:39:13,550 --> 00:39:15,940
- Pengembangan KB
- tidak akan berhenti...
- 592
- 00:39:15,940 --> 00:39:17,940
- akan terus berlanjut,
- dan berkembang.
- 593
- 00:39:17,940 --> 00:39:21,900
- Kalau lembaga Internasional tidak
- membuat aturan tentang ini...
- 594
- 00:39:21,900 --> 00:39:24,520
- orang akan menciptakan sesuatu
- yang bisa melakukan apa saja.
- 595
- 00:39:24,520 --> 00:39:27,470
- Dalam surat tertulis, dalam tahun
- yang akan datang, bukan dekade...
- 596
- 00:39:27,470 --> 00:39:29,600
- senjata ini akan tersebar.
- 597
- 00:39:29,600 --> 00:39:32,430
- Terdapat 6.000 tanda tangan,
- dalam surat itu.
- 598
- 00:39:32,430 --> 00:39:35,000
- Banyak dari mereka
- ahli dalam bidang ini.
- 599
- 00:39:36,900 --> 00:39:39,850
- Saya sering dikunjungi oleh
- perwira tinggi...
- 600
- 00:39:39,850 --> 00:39:43,900
- yang menekankan, kalau
- dominasi militer Amerika itu penting.
- 601
- 00:39:44,600 --> 00:39:49,200
- Dan senjata autonomous mungkin
- bagian dari rencana Departemen Pertahanan.
- 602
- 00:39:49,900 --> 00:39:52,570
- Sangat menakutkan, karena
- nilai sistem dari...
- 603
- 00:39:52,570 --> 00:39:57,620
- Pengembangan Teknologi Militer itu
- tidak sama dengan nilai sistem Kemanusiaan.
- 604
- 00:40:00,650 --> 00:40:04,590
- Diluar dari kemungkinan kalau
- teknologi ini dapat...
- 605
- 00:40:04,590 --> 00:40:06,500
- mengancam eksistensi manusia.
- 606
- 00:40:06,500 --> 00:40:09,750
- Banyak teknologis mendanai
- Future of Life Institute...
- 607
- 00:40:09,750 --> 00:40:12,000
- untuk menangani masalah ini.
- 608
- 00:40:12,970 --> 00:40:18,060
- Semua orang ini merahasiakannya,
- menarik bagi saya melihat mereka berkumpul.
- 609
- 00:40:20,900 --> 00:40:24,000
- Yang kita dapati adalah,
- hasil karena kecerdasan kita,
- 610
- 00:40:24,000 --> 00:40:26,270
- bukan karena taring kita,
- 611
- 00:40:26,270 --> 00:40:28,270
- atau kuku tajam kita,
- 612
- 00:40:28,270 --> 00:40:32,070
- atau otot kita yang besar, melainkan
- karena otak kita.
- 613
- 00:40:32,400 --> 00:40:34,490
- di masa angkatan saya...
- 614
- 00:40:34,490 --> 00:40:38,850
- kami pernah membuat
- pergerakan "Holy Cow"...
- 615
- 00:40:38,850 --> 00:40:41,830
- karena teknologi
- berkembang cepat...
- 616
- 00:40:42,120 --> 00:40:43,500
- daripada yang kita
- bayangkan.
- 617
- 00:40:44,600 --> 00:40:49,700
- Saya duduk bersama dengan
- seluruh orang-orang tercerdas di dunia.
- 618
- 00:40:49,920 --> 00:40:51,920
- yang membuat saya
- bingung adalah...
- 619
- 00:40:51,920 --> 00:40:54,900
- mungkin otak manusia,
- tidak dapat untuk...
- 620
- 00:40:54,900 --> 00:40:58,500
- memahami seutuhnya kompleksitas
- dunia yang kita hadapi.
- 621
- 00:40:59,600 --> 00:41:04,060
- Seiring kita membangun, jalan
- KB hingga mencapai puncaknya...
- 622
- 00:41:04,690 --> 00:41:06,770
- kita harus mengubah haluan.
- 623
- 00:41:06,770 --> 00:41:10,530
- Sehingga kita tidak menjatuhkan
- umat manusia dari puncaknya.
- 624
- 00:41:13,600 --> 00:41:16,400
- Google membeli Deep Mind,
- beberapa tahun lalu
- 625
- 00:41:17,750 --> 00:41:21,350
- DeepMind beroperasi sebagai
- pengganti semi-independennya Google.
- 626
- 00:41:22,550 --> 00:41:25,880
- Yang membuat DeepMind
- unik adalah...
- 627
- 00:41:25,880 --> 00:41:29,900
- ia hanya berfokus menciptakan
- super-intelegensia digital...
- 628
- 00:41:30,100 --> 00:41:33,950
- KB yang lebih pintar dari
- manusia terpintar di dunia.
- 629
- 00:41:33,950 --> 00:41:36,470
- Lebih pintar dari seluruh manusia
- kalau digabung.
- 630
- 00:41:37,100 --> 00:41:40,400
- Ini gambaran dari sistem yang
- dijalankan oleh DeepMind.
- 631
- 00:41:40,560 --> 00:41:43,750
- Anggap ini adalah
- bayi yang baru lahir,
- 632
- 00:41:43,750 --> 00:41:46,310
- lalu langsung dijejali
- permainan Atari.
- 633
- 00:41:46,760 --> 00:41:49,150
- Maka ia pelajari
- permainan tersebut.
- 634
- 00:41:50,350 --> 00:41:52,900
- Padahal ia tidak tahu
- apa itu objek,
- 635
- 00:41:52,900 --> 00:41:55,030
- apa itu gerakan,
- apa itu waktu.
- 636
- 00:41:57,400 --> 00:42:00,900
- Yang ia tahu hanya gambar
- dan skor.
- 637
- 00:42:02,500 --> 00:42:06,300
- Jadi anggap ini adalah
- bayi yang baru lahir...
- 638
- 00:42:06,300 --> 00:42:11,300
- sampai siang memainkan
- permainan Atari yang beda-beda...
- 639
- 00:42:11,320 --> 00:42:14,700
- dalam tingkat manusia super,
- kalian pasti akan ketakutan.
- 640
- 00:42:15,200 --> 00:42:18,200
- Kalian pasti mengira,
- "Mungkin bayi ini kerasukan, balikin."
- 641
- 00:42:18,890 --> 00:42:21,390
- Sistem DeepMind dapat
- memenangkan semua permainan.
- 642
- 00:42:23,500 --> 00:42:26,190
- Ia dapat menyelesaikan semua
- permainan Atari.
- 643
- 00:42:27,550 --> 00:42:31,440
- Ia adalah manusia super,
- ia selesaikan cepat sekali, kurang dari semenit.
- 644
- 00:42:36,900 --> 00:42:40,370
- DeepMind mengubah situasi,
- dan situasi itu pada permainan Go.
- 645
- 00:42:40,370 --> 00:42:43,950
- Permainan yang dikatakan
- melampaui...
- 646
- 00:42:43,950 --> 00:42:47,550
- kemampuan komputer, melawan
- orang terbaik dalam permainan Go.
- 647
- 00:42:48,120 --> 00:42:50,900
- Pertama, ia menantang
- juara Go dari Eropa.
- 648
- 00:42:53,030 --> 00:42:55,700
- Lalu itu juara Go dari Korea.
- 649
- 00:42:57,670 --> 00:43:01,750
- Ternyata ia bisa menangkan
- keduanya, dan selalu menyerang.
- 650
- 00:43:02,910 --> 00:43:06,890
- Baca saja artikel di New York Times
- yang mengatakan bagimana permainan Go...
- 651
- 00:43:06,890 --> 00:43:08,940
- butuh waktu 100 tahun,
- untuk dikuasai.
- 652
- 00:43:10,050 --> 00:43:13,230
- Orang-orang berpikiran kalau
- itu hanya permainan papan.
- 653
- 00:43:13,450 --> 00:43:14,900
- Poker itu seni.
- 654
- 00:43:14,900 --> 00:43:17,600
- Main poker harus membaca orang,
- main poker harus bohong,
- 655
- 00:43:17,600 --> 00:43:20,500
- tidak boleh berlagak,
- itulah yang komputer...
- 656
- 00:43:20,500 --> 00:43:22,600
- tidak akan menangkan.
- 657
- 00:43:22,600 --> 00:43:24,600
- Langsung didatangkan
- 7 pemain terbaik...
- 658
- 00:43:24,600 --> 00:43:29,500
- dan butuh 7 hari, untuk
- membantai manusia.
- 659
- 00:43:30,600 --> 00:43:33,670
- Jadi pemain poker terbaik,
- pemain Go terbaik.
- 660
- 00:43:33,670 --> 00:43:37,300
- Dan polanya itu kalau KB
- membutuhkan waktu...
- 661
- 00:43:37,300 --> 00:43:40,000
- untuk menguasai itu semua.
- 662
- 00:43:40,260 --> 00:43:43,000
- Kalau sudah berhasil,
- menguasai itu.
- 663
- 00:43:43,000 --> 00:43:44,680
- Ia tidak dapat dihentikan.
- 664
- 00:43:51,850 --> 00:43:56,680
- KB DeepMind, memiliki akses
- tingkat admin, ke server Google.
- 665
- 00:43:57,000 --> 00:43:59,530
- Untuk mengoptimalkan penggunaan daya
- di pusat data.
- 666
- 00:44:00,600 --> 00:44:04,450
- Bisa saja, ia terserang
- Trojan Horse.
- 667
- 00:44:04,700 --> 00:44:07,200
- DeepMind memiliki kendali penuh
- di pusat data,
- 668
- 00:44:07,200 --> 00:44:08,840
- jadi dengan sedikit
- update software...
- 669
- 00:44:08,840 --> 00:44:12,040
- KB bisa menguasai seluruh
- sistem Google.
- 670
- 00:44:12,040 --> 00:44:16,000
- Artinya ia bisa melakukan segalanya,
- mengetahui Data Anda. Semuanya.
- 671
- 00:44:20,550 --> 00:44:22,950
- Kita menuju masa super-cerdas
- digital...
- 672
- 00:44:22,950 --> 00:44:25,700
- yang melampaui manusia.
- Sudah jelas.
- 673
- 00:44:26,200 --> 00:44:29,680
- Masalahnya adalah, ketika kita
- mencapai kecerdasan level manusia,
- 674
- 00:44:29,680 --> 00:44:31,680
- "Oke, hentikan risetnya."
- 675
- 00:44:32,950 --> 00:44:36,350
- Saat melampaui kecerdasan
- manusia dan disebut kecerdasan super...
- 676
- 00:44:36,350 --> 00:44:37,610
- intinya lebih cerdas dari kita.
- 677
- 00:44:39,300 --> 00:44:44,200
- KB dalam level manusia super,
- kalau sampai sukses kita akan...
- 678
- 00:44:44,200 --> 00:44:48,410
- menjadi penemuan terkuat yang pernah
- diciptakan manusia, dan yang terakhir.
- 679
- 00:44:50,150 --> 00:44:52,500
- Karena kita menciptakan
- KB lebih cerdas dari kita...
- 680
- 00:44:53,040 --> 00:44:57,290
- kita akan menutup kemungkinan
- agar tidak dikuasai mereka.
- 681
- 00:45:01,000 --> 00:45:04,930
- Kita ambil contoh seperti
- menyembuhkan kanker, Anda akan tahu...
- 682
- 00:45:04,930 --> 00:45:08,600
- dalam menyembuhkan kanker
- banyak sekali konflik...
- 683
- 00:45:08,600 --> 00:45:10,600
- dengan banyak hal
- yang Anda cintai.
- 684
- 00:45:12,250 --> 00:45:15,270
- KB tidak perlu jahat untuk
- menghancurkan umat manusia.
- 685
- 00:45:16,500 --> 00:45:20,470
- Kalau KB memiliki tujuan, dan
- manusia menghalangi...
- 686
- 00:45:20,480 --> 00:45:22,780
- maka menghancurkan
- manusia baginya adalah keharusan,
- 687
- 00:45:22,780 --> 00:45:24,940
- tanpa perlu ia pikirkan
- atau rasa keberatan.
- 688
- 00:45:24,940 --> 00:45:26,990
- Seperti kalau kita
- membangun jalan...
- 689
- 00:45:26,990 --> 00:45:29,530
- lalu ada rumah semut
- menghalangi,
- 690
- 00:45:29,530 --> 00:45:32,900
- kita tidak membenci semut,
- tapi kita sedang membuat jalan.
- 691
- 00:45:32,900 --> 00:45:34,900
- kita hancurkan begitu saja.
- 692
- 00:45:37,810 --> 00:45:41,520
- Tidak mudah melepaskan
- perhatian semacam ini...
- 693
- 00:45:41,520 --> 00:45:45,050
- sesuatu yang akan terjadi dalam
- beberapa dekade atau ratusan tahun lagi.
- 694
- 00:45:45,050 --> 00:45:47,400
- Tapi kenapa bisa
- membuat kita khawatir?
- 695
- 00:45:47,400 --> 00:45:50,490
- Kalau kita kembali ke
- 11 September 1933,
- 696
- 00:45:50,490 --> 00:45:54,490
- Ernest Rutherford adalah fisikawan nuklir
- terbesar pada zamannya...
- 697
- 00:45:54,640 --> 00:45:58,580
- berkata,"Kemungkinan mengekstrak
- energi yang berguna...
- 698
- 00:45:58,580 --> 00:46:02,150
- dari transmutasi Atom
- sama dengan ledakan bulan."
- 699
- 00:46:02,950 --> 00:46:06,320
- Esok paginya, Leo Szilard,
- seorang fisikawan yang lebih muda...
- 700
- 00:46:06,320 --> 00:46:09,700
- membaca ini lalu merasa jengkel,
- lalu dia menemukan...
- 701
- 00:46:09,700 --> 00:46:14,120
- cara membuat reaksi nuklir berantai,
- dalalm beberapa bulan setelah itu
- 702
- 00:46:20,400 --> 00:46:23,480
- KIta telah menghabiskan
- lebih dari $2 miliar...
- 703
- 00:46:23,480 --> 00:46:26,600
- hanya untuk spekulasi ilmiah
- dalam sejarah.
- 704
- 00:46:27,880 --> 00:46:32,000
- Kalau ada yang bilang, kita ini jauh
- dari masa depan yang mengkhawatirkan.
- 705
- 00:46:32,430 --> 00:46:36,150
- Mungkin jauhnya hanya
- antara bumi dan bintang...
- 706
- 00:46:36,150 --> 00:46:39,050
- yang membawa kita dari sini
- menuju mesin super-cerdas.
- 707
- 00:46:40,050 --> 00:46:43,400
- Kalau hanya butuh 20 tahun,
- bagaimana cara...
- 708
- 00:46:43,400 --> 00:46:46,400
- supaya KB tetap menguntungkan,
- maka sudah dimulai dari...
- 709
- 00:46:46,410 --> 00:46:48,720
- Sekarang, Bukan di detik terakhir...
- 710
- 00:46:48,730 --> 00:46:51,450
- muncul seorang pemuda
- minum kratingdeng,
- 711
- 00:46:51,450 --> 00:46:53,450
- yang menarik tuasnya,
- supaya terlihat hasilnya.
- 712
- 00:46:56,630 --> 00:46:59,460
- Kita punya waktu lima tahun...
- 713
- 00:46:59,460 --> 00:47:02,750
- saya kira digital yang super-cerdas
- akan muncul pada masa hidup saya.
- 714
- 00:47:03,650 --> 00:47:06,050
- 100%.
- 715
- 00:47:06,250 --> 00:47:08,500
- Kalau ini terjadi,
- maka akan dikelilingi...
- 716
- 00:47:08,500 --> 00:47:12,510
- oleh orang-orang yang
- tertarik dengan teknologi.
- 717
- 00:47:12,900 --> 00:47:16,770
- Mereka ingin melihat keberhasilan,
- juga tidak mengharapkan itu di luar kendali.
- 718
- 00:47:25,400 --> 00:47:28,400
- Ya Tuhan, saya sangat percaya
- sama komputer saya.
- 719
- 00:47:28,400 --> 00:47:30,030
- Itu pertanyaan yang berat.
- 720
- 00:47:30,030 --> 00:47:33,200
- Saya tidak percaya komputer saya,
- kalau nyala saya matiin.
- 721
- 00:47:33,200 --> 00:47:35,150
- Biar sudah mati saya
- merasa masih nyala...
- 722
- 00:47:35,150 --> 00:47:38,050
- seperti saat kau merasa...
- webcamnya,
- 723
- 00:47:38,060 --> 00:47:40,460
- mungkin ada orang
- dari jauh nyalain, kau tidak tahu.
- 724
- 00:47:40,950 --> 00:47:44,150
- Saya tidak percaya komputer saya,
- handphone saya...
- 725
- 00:47:44,150 --> 00:47:46,250
- setiap hari bertanya,
- 726
- 00:47:46,250 --> 00:47:49,350
- "Can we send your
- information to Apple?"
- 727
- 00:47:49,350 --> 00:47:52,930
- Setiap saat, dan saya tidak
- percaya sama hp saya.
- 728
- 00:47:53,480 --> 00:47:57,520
- Okeh, sebagian saya percaya
- karena...
- 729
- 00:47:57,800 --> 00:48:00,530
- saya tidak akan bisa
- melewati hari...
- 730
- 00:48:00,530 --> 00:48:03,650
- sebagaimana dunia kalau
- tidak ada komputer.
- 731
- 00:48:07,900 --> 00:48:10,440
- Tilililililililililililililililililit.
- 732
- 00:48:10,850 --> 00:48:13,550
- Kepercayaan itu ada karena
- yang seseorang alami.
- 733
- 00:48:17,620 --> 00:48:21,170
- trurururururut...trurururururut.
- 734
- 00:48:21,180 --> 00:48:26,170
- Saya memiliki pasien yang mengidap
- pembengkakan pembuluh darah di otaknya.
- 735
- 00:48:30,170 --> 00:48:34,000
- Dia menatap mata saya, dan
- dia percayakan seluruh hidupnya ke saya.
- 736
- 00:48:34,800 --> 00:48:39,300
- Saya tidak terlalu memikirkan
- apa pun.
- 737
- 00:48:39,890 --> 00:48:42,390
- mungkin karena saya
- percaya dengan Anda.
- 738
- 00:48:50,500 --> 00:48:55,570
- Prosedur ini, dalam 20 tahun yang lalu
- sangatlah mustahil.
- 739
- 00:48:57,050 --> 00:48:59,800
- Karena dulu belum ada
- teknologi dan alatnya.
- 740
- 00:49:06,650 --> 00:49:09,000
- Terjepit di sana.
- 741
- 00:49:14,550 --> 00:49:17,260
- Bisa lebih parah lagi.
- Astaga.
- 742
- 00:49:22,620 --> 00:49:24,270
- Jadi koilnya...
- 743
- 00:49:24,270 --> 00:49:26,270
- baru masuk ke dalam.
- 744
- 00:49:26,680 --> 00:49:29,230
- Ada benda kecil sekali
- yang menahan.
- 745
- 00:49:29,820 --> 00:49:31,820
- Saat-saat gemetaran.
- 746
- 00:49:36,110 --> 00:49:37,540
- Kami memasuki
- purgatori.
- 747
- 00:49:37,540 --> 00:49:40,490
- purgatori intelektual humanistik.
- 748
- 00:49:40,750 --> 00:49:44,100
- dan KB pasti tahu apa
- yang terjadi saat ini.
- 749
- 00:49:50,450 --> 00:49:52,400
- Sudah masuk koil
- ke bagian yang bengkak...
- 750
- 00:49:52,410 --> 00:49:56,360
- tapi masuknya tidak begitu benar,
- tapi saya tahu bakal begitu.
- 751
- 00:49:56,360 --> 00:50:00,800
- kalau begitu resiko terjadi
- hal yang buruk mencapai 20%.
- 752
- 00:50:00,800 --> 00:50:02,930
- Saya ingin keluarkan lagi.
- 753
- 00:50:04,270 --> 00:50:06,200
- Karena kedekatan saya dengannya,
- 754
- 00:50:06,210 --> 00:50:10,100
- dan kesulitan
- dalam prosedur ini.
- 755
- 00:50:10,100 --> 00:50:12,370
- Saya mulai mempertimbangkan...
- 756
- 00:50:12,370 --> 00:50:15,000
- yang paling aman supaya sukses.
- 757
- 00:50:16,200 --> 00:50:19,200
- Saya hanya berdiri selama 10 menit
- menyiksa batin.
- 758
- 00:50:19,600 --> 00:50:21,850
- Komputer tidak merasakan
- apa-apa.
- 759
- 00:50:21,850 --> 00:50:24,620
- Komputer hanya melakukan
- yang perlu dilakukan,
- 760
- 00:50:24,620 --> 00:50:26,620
- semakin dan semakin baik.
- 761
- 00:50:30,150 --> 00:50:32,500
- Saya mau menjadi KB
- dalam kasus ini,
- 762
- 00:50:35,800 --> 00:50:39,200
- tapi apa KB memiliki
- rasa kasihan?
- 763
- 00:50:42,900 --> 00:50:46,220
- Karena ini pertanyaan semua orang
- mengenai KB.
- 764
- 00:50:47,700 --> 00:50:51,500
- Kita adalah wujud
- kemanusiaan,
- 765
- 00:50:52,050 --> 00:50:55,200
- sangat tidak mungkin,
- kalau yang namanya mesin...
- 766
- 00:50:55,200 --> 00:50:58,700
- bisa memiliki rasa kasihan,
- dan cinta seperti manusia.
- 767
- 00:51:05,050 --> 00:51:07,050
- Sebagian diri saya tidak
- percaya keajaiban,
- 768
- 00:51:07,050 --> 00:51:11,450
- tapi sebagian lagi percaya
- kalau ada sesuatu dibalik semua ini.
- 769
- 00:51:11,450 --> 00:51:15,520
- Ada yang satu dari setiap
- garis keturunan kita,
- 770
- 00:51:15,520 --> 00:51:18,320
- garis biologis kita,
- garis sejarah kita.
- 771
- 00:51:20,250 --> 00:51:23,250
- Suatu ikatan yang
- melebihi mesin.
- 772
- 00:51:30,250 --> 00:51:32,400
- Lalu akan terlihat
- sisi yang mengatakan...
- 773
- 00:51:32,400 --> 00:51:35,060
- Apakah komputer punya kesadaran,
- atau tidak punya...
- 774
- 00:51:35,060 --> 00:51:37,000
- dan apa dia punya rasa peduli?
- 775
- 00:51:37,000 --> 00:51:39,000
- Apa ia harus punya kesadaran?
- 776
- 00:51:39,850 --> 00:51:41,900
- Apa ia butuh kepekaan?
- 777
- 00:51:52,870 --> 00:51:56,210
- Menurut saya tidak mungkin
- robot memiliki kesadaran.
- 778
- 00:51:56,210 --> 00:51:58,170
- Kecuali kalau diprogram.
- 779
- 00:51:58,580 --> 00:52:00,470
- Kesadaran? Tidak.
- 780
- 00:52:00,470 --> 00:52:02,470
- Tida, tidak.
- 781
- 00:52:03,200 --> 00:52:05,840
- Menurut saya robot bisa
- diprogram supaya sadar,
- 782
- 00:52:05,840 --> 00:52:08,500
- bagaimana kalau ia
- memprogram yang lainnya juga?
- 783
- 00:52:09,550 --> 00:52:12,310
- Itulah bagian besar dari KB,
- 784
- 00:52:12,310 --> 00:52:15,500
- membuat ia sadar,
- membuat ia merasakan.
- 785
- 00:52:22,300 --> 00:52:27,200
- Kembali ke 2005, awal kami membangun
- mesin yang memiliki kepekaan.
- 786
- 00:52:32,870 --> 00:52:36,000
- Robot ini, tidak tahu apa-apa.
- 787
- 00:52:37,090 --> 00:52:39,880
- Yang ia tahu hanyalah
- dia harus berjalan.
- 788
- 00:52:44,350 --> 00:52:47,620
- Melewati serangkaian
- kegagalan, ia berhasil berjalan.
- 789
- 00:52:47,630 --> 00:52:50,730
- Menggunakan imajinasinya sendiri,
- lalu ia berjalan.
- 790
- 00:52:53,850 --> 00:52:57,440
- Lalu kami melakukan hal yang keji,
- kami putusin kakinya.
- 791
- 00:52:57,440 --> 00:52:59,440
- Dan lihatlah yang terjadi.
- 792
- 00:53:02,850 --> 00:53:06,900
- Awalnya, ia tidak tahu
- harus bagaimana...
- 793
- 00:53:07,600 --> 00:53:11,550
- tapi dalam beberapa hari,
- ia mulai jalan pincang.
- 794
- 00:53:13,120 --> 00:53:18,460
- Lalu setahun yang lalu, kami melatih
- sistem KB untuk demonstrasi aslinya.
- 795
- 00:53:20,120 --> 00:53:22,510
- Kami juga memberikan...
- 796
- 00:53:22,510 --> 00:53:26,180
- objek di depan kamera, maka KB
- akan mengenali kalau itu objek.
- 797
- 00:53:27,200 --> 00:53:30,600
- Kami menyiapkan demonya,
- dan dipinggiran ada layar...
- 798
- 00:53:30,600 --> 00:53:33,510
- untuk kami supaya bisa
- melihat pergerakan neuron...
- 799
- 00:53:33,510 --> 00:53:35,510
- atau bagaimana responnya.
- 800
- 00:53:36,650 --> 00:53:40,680
- Kami menemukan ada satu neuron
- yang mendeteksi wajah.
- 801
- 00:53:40,850 --> 00:53:43,700
- Mendeteksi wajah sebagaimana
- wajah kami bergerak.
- 802
- 00:53:45,350 --> 00:53:47,430
- Yang mengerikan dari ini adalah...
- 803
- 00:53:47,430 --> 00:53:49,450
- kami tidak membuat
- sistem itu...
- 804
- 00:53:49,450 --> 00:53:51,620
- untuk mengenali wajah manusia.
- 805
- 00:53:52,330 --> 00:53:55,000
- Entah bagaimana ia
- bisa melakukannya.
- 806
- 00:53:57,700 --> 00:54:01,800
- Walaupun terdengar remeh,
- menurut kami itu adalah masalah.
- 807
- 00:54:02,250 --> 00:54:04,300
- Ini bukan sekedar program.
- 808
- 00:54:05,800 --> 00:54:08,010
- Ini baru permulaan.
- 809
- 00:54:10,250 --> 00:54:12,970
- Saya sering memikirkan
- pantai di Kitty Hawk.
- 810
- 00:54:14,140 --> 00:54:18,200
- Pada 1903, penerbangan
- oleh Wilbur bersaudara.
- 811
- 00:54:21,200 --> 00:54:24,200
- Sebuah pesawat kanvas,
- dirangkai dengan kayu dan besil.
- 812
- 00:54:24,200 --> 00:54:26,670
- Terbang selama 1 menit 20 detik,
- 813
- 00:54:26,680 --> 00:54:31,450
- berada di dalam angin,
- sebelum mendarat kembali.
- 814
- 00:54:33,050 --> 00:54:37,000
- Dan setelah 65 musim panas berikutnya,
- 815
- 00:54:37,000 --> 00:54:41,250
- setelah momen itu,
- Anda bisa melihat 747...
- 816
- 00:54:41,250 --> 00:54:43,210
- lepas landas dari JFK.
- 817
- 00:54:50,200 --> 00:54:52,970
- Yang menjadi perhatian
- seseorang saat di pesawat ialah...
- 818
- 00:54:52,970 --> 00:54:56,890
- cemilan tanpa garamnya,
- akan dibawakan atau tidak.
- 819
- 00:54:57,200 --> 00:55:01,290
- Semua infrastruktur, agen travel
- dan menara pengawas.
- 820
- 00:55:01,290 --> 00:55:03,570
- Semua itu lumrah.
- Karena sudah jadi bagian dunia.
- 821
- 00:55:06,850 --> 00:55:11,200
- Sejauh ini kita bersama dengan mesin,
- yang berpikir dan menyelesaikan masalah.
- 822
- 00:55:11,200 --> 00:55:13,550
- Kita sama saja berada di Kitty Hawk,
- di dalam angin,
- 823
- 00:55:13,550 --> 00:55:16,800
- kita berada di pesawat kanvas
- yang terbang di udara.
- 824
- 00:55:20,770 --> 00:55:23,750
- Tapi apa yang akan terjadi
- setelah 75 musim panas berikutnya...
- 825
- 00:55:23,750 --> 00:55:26,840
- apakah akan ada mesin yang
- tidak dikendalikan manusia?
- 826
- 00:55:28,050 --> 00:55:29,470
- Haruskah dikhawatirkan?
- 827
- 00:55:32,450 --> 00:55:35,640
- Saya yakin, itu tidak akan terjadi.
- 828
- 00:55:40,100 --> 00:55:45,330
- Tidak ada yang tahu, artinya
- robot yang memiliki kesadaran.
- 829
- 00:55:46,250 --> 00:55:48,490
- Tidak akan ada itu.
- 830
- 00:55:48,700 --> 00:55:52,350
- Banyak orang cerdas, dan
- saya menghormati mereka.
- 831
- 00:55:52,900 --> 00:55:54,330
- Tapi, sebenarnya adalah...
- 832
- 00:55:54,330 --> 00:55:57,330
- yang namanya mesin itu
- pada dasarnya adalah psikopat.
- 833
- 00:55:57,600 --> 00:55:59,050
- Ketakutan melanda pasar.
- 834
- 00:55:59,050 --> 00:56:01,710
- Turun $800 hampir $1000
- dalam satu detik.
- 835
- 00:56:01,710 --> 00:56:03,130
- Ini kapitulasi klasik.
- 836
- 00:56:03,130 --> 00:56:06,500
- Beberapa orang mengatakan,
- kalau ini perbuatan seseorang.
- 837
- 00:56:07,010 --> 00:56:09,010
- Lihatlah Flash Crash
- pada tahun 2010...
- 838
- 00:56:09,420 --> 00:56:11,750
- Dalam hitungan menit,
- 839
- 00:56:11,750 --> 00:56:15,250
- biliyunan dollar value dalam
- pasar saham, hilang.
- 840
- 00:56:15,250 --> 00:56:18,700
- Saham jatuh 1.000 poin
- dalam setengah jam.
- 841
- 00:56:18,950 --> 00:56:21,110
- Jadi, apa yang salah.
- 842
- 00:56:22,400 --> 00:56:23,770
- Dari situ kita lihat...
- 843
- 00:56:24,050 --> 00:56:28,600
- lebih dari 60% transaksi yang terjadi
- di pasar saham itu...
- 844
- 00:56:28,950 --> 00:56:32,820
- berlangsung dalam komputer.
- 845
- 00:56:32,820 --> 00:56:34,820
- Penjualan panik terjadi,
- dan tiba-tiba...
- 846
- 00:56:34,820 --> 00:56:35,740
- nilai berhenti di receh.
- 847
- 00:56:35,740 --> 00:56:37,370
- Tidak disangka-sangka.
- 848
- 00:56:37,370 --> 00:56:40,050
- Cerita dibalik Flash Crash adalah...
- 849
- 00:56:40,050 --> 00:56:42,230
- algoritma merespon
- algoritma lain...
- 850
- 00:56:42,230 --> 00:56:45,350
- dan saling menghancurkan,
- terus, terus, dan terus.
- 851
- 00:56:45,400 --> 00:56:46,600
- Dalam beberapa menit.
- 852
- 00:56:46,600 --> 00:56:50,850
- Di satu sisi pasar jatuh
- seperti tercebur ke sumur.
- 853
- 00:56:50,850 --> 00:56:55,200
- Tidak ada badan pengawas yang
- cukup cepat untuk mencegah...
- 854
- 00:56:55,200 --> 00:56:57,800
- potensi yang berbahaya seperti itu,
- 855
- 00:56:57,800 --> 00:57:01,060
- karena KB beroperasi dalam
- sistem finansial kita...
- 856
- 00:57:01,060 --> 00:57:03,730
- pasti besar kemungkinan
- manipulasi.
- 857
- 00:57:04,000 --> 00:57:07,550
- Kita lihat betapa cepatnya
- pasar menurun.
- 858
- 00:57:08,000 --> 00:57:11,100
- Itu adalah KB yang marah,
- itulah yang ditakuti orang-orang.
- 859
- 00:57:11,440 --> 00:57:13,440
- Ketika diberi kesempatan...
- 860
- 00:57:13,440 --> 00:57:16,750
- ia akan berbuat kejam
- demi tercapainya tujuannya.
- 861
- 00:57:17,750 --> 00:57:19,540
- Seberapa banyak program
- komputer begini?
- 862
- 00:57:20,160 --> 00:57:21,350
- Tidak ada yang tahu.
- 863
- 00:57:23,330 --> 00:57:27,250
- Salah satu aspek menarik dari
- KB secara umum adalah...
- 864
- 00:57:27,250 --> 00:57:30,920
- tidak ada orang yang benar-benar
- paham bagaimana kerjanya.
- 865
- 00:57:31,840 --> 00:57:35,600
- Termasuk orang yang menciptakan
- KB, tidak sepenuhnya paham.
- 866
- 00:57:36,850 --> 00:57:39,220
- Karena ia memiliki jutaan elemen.
- 867
- 00:57:39,640 --> 00:57:42,900
- Menjadi sangat tidak mungkin
- bagi manusia...
- 868
- 00:57:42,900 --> 00:57:44,940
- untuk memahami
- apa yang terjadi.
- 869
- 00:57:52,050 --> 00:57:56,000
- Microsoft menciptakan
- Kecerdasan Buatan...
- 870
- 00:57:56,000 --> 00:57:58,460
- yang dinamakan Tay di Twitter,
- berupa chatbot.
- 871
- 00:58:01,050 --> 00:58:02,830
- Diluncurkan pada pagi hari,
- 872
- 00:58:02,840 --> 00:58:06,050
- lalu Tay mulai ngetwit
- dan mempelajari hal...
- 873
- 00:58:06,050 --> 00:58:07,650
- yang dikirim ke dia.
- 874
- 00:58:07,650 --> 00:58:09,650
- Dari twit orang lain.
- 875
- 00:58:10,650 --> 00:58:14,800
- Karena seorang troll menyerang,
- dalam 24 jam...
- 876
- 00:58:14,800 --> 00:58:17,970
- bot Microsoft menjadi
- sangat mengerikan.
- 877
- 00:58:18,500 --> 00:58:23,100
- Mereka menarik Tay dari internet,
- karena ia berubah menjadi monster.
- 878
- 00:58:24,600 --> 00:58:29,900
- Bot misantropi, rasis, mengerikan
- yang tidak akan Anda ingin temui.
- 879
- 00:58:30,360 --> 00:58:32,150
- Tidak ada lagi ia.
- 880
- 00:58:35,200 --> 00:58:37,450
- Jadi KB ini,
- tidak diberitahu...
- 881
- 00:58:37,450 --> 00:58:41,910
- bagaimana meraih tujuan
- yang seharusnya.
- 882
- 00:58:42,600 --> 00:58:44,910
- KB berkembang sendiri.
- 883
- 00:58:46,290 --> 00:58:48,710
- Kami mengkhawatirkan
- KB super-cerdas...
- 884
- 00:58:48,710 --> 00:58:51,350
- master dalam bermain catur
- yang akan menyerong kita.
- 885
- 00:58:52,600 --> 00:58:55,450
- Tapi KB tidak akan secerdas itu...
- 886
- 00:58:55,900 --> 00:58:58,220
- dalam hal mengacaukan...
- 887
- 00:58:58,220 --> 00:59:00,340
- peradaban manusia.
- 888
- 00:59:00,340 --> 00:59:03,550
- Kita lihat ke abad yang lalu,
- tidak perlu jenius untuk...
- 889
- 00:59:03,550 --> 00:59:05,890
- mengacaukan sejarah ke
- jalur yang semestinya.
- 890
- 00:59:06,700 --> 00:59:09,400
- Dan tidak perlu KB yang jenius
- untuk berbuat demikian.
- 891
- 00:59:10,200 --> 00:59:14,200
- Berita pemilu hoax
- menjamur di facebook.
- 892
- 00:59:14,200 --> 00:59:16,900
- Dan menjadi stories top.
- 893
- 00:59:17,360 --> 00:59:19,570
- Facebook sudah menjadi
- gajah dalam kamar.
- 894
- 00:59:20,900 --> 00:59:23,600
- KB yang mengolah
- beranda Facebok...
- 895
- 00:59:23,600 --> 00:59:27,600
- adalah KB yang bertugas supaya
- pengguna tidak terlewat berita.
- 896
- 00:59:28,250 --> 00:59:31,000
- Tapi tidak ada seorang pun
- yang paham betul...
- 897
- 00:59:31,000 --> 00:59:33,670
- bagaimana KB tersebut
- berhasil mencapai tujuannya.
- 898
- 00:59:34,850 --> 00:59:38,600
- Facebook telah membangun dinding cermin
- yang elegan di sekitar kita.
- 899
- 00:59:38,600 --> 00:59:41,540
- Cermin yang bisa ditanya,
- "Siapa yang terbaik dari semuanya?"
- 900
- 00:59:41,540 --> 00:59:44,300
- Dan jawabannya adalah
- Kau, kau, terus dan terus.
- 901
- 00:59:45,220 --> 00:59:48,060
- Inilah yang membentuk realita kita.
- 902
- 00:59:48,060 --> 00:59:53,300
- Membentuk pandangan politik, sejarah,
- peristiwa dunia kita.
- 903
- 00:59:53,350 --> 00:59:56,690
- Sampai membuat keputusan
- mana yang benar dan tidak...
- 904
- 00:59:56,690 --> 00:59:58,530
- apakah mungkin secara virtual?
- 905
- 01:00:00,900 --> 01:00:02,030
- Yang jadi masalah adalah...
- 906
- 01:00:02,030 --> 01:00:04,700
- KB tidak mengerti itu semua,
- KB hanya...
- 907
- 01:00:04,700 --> 01:00:09,120
- diberi misi supaya pengguna
- tidak terlewat berita, dan ia berhasil.
- 908
- 01:00:09,950 --> 01:00:14,950
- Hampir 2 miliyar orang, menghabiskan
- 1 jam dalam setiap hari...
- 909
- 01:00:14,950 --> 01:00:18,350
- berinteraksi dengan KB yang...
- 910
- 01:00:18,350 --> 01:00:20,350
- mengubah pengalaman mereka.
- 911
- 01:00:21,340 --> 01:00:24,640
- Padahal teknisi Facebook
- tidak suka dengan berita hoax...
- 912
- 01:00:24,650 --> 01:00:27,840
- karena itu buruk sekali,
- mereka ingin menyingkirkan hoax...
- 913
- 01:00:27,840 --> 01:00:29,840
- tapi sulit dilakukan karena...
- 914
- 01:00:29,840 --> 01:00:32,150
- bagaimana cara mengetahui
- kalau itu hoax?
- 915
- 01:00:32,150 --> 01:00:34,600
- Kalau tidak membaca
- keseluruhan beritanya.
- 916
- 01:00:34,600 --> 01:00:38,700
- Banyak sekali, penyebar
- berita palsu,
- 917
- 01:00:39,460 --> 01:00:42,900
- dan dikemas baik sekali,
- dan sama ketika kalian...
- 918
- 01:00:42,900 --> 01:00:46,450
- melihat halaman Facebook,
- dan televisi.
- 919
- 01:00:47,400 --> 01:00:51,230
- Ini bukanlah sesuatu yang canggih,
- tapi kuat sekali.
- 920
- 01:00:51,500 --> 01:00:54,170
- Nanti pandangan
- kalian tentang dunia...
- 921
- 01:00:54,170 --> 01:00:58,170
- seperti 20 tahun yang lalu,
- kalau Anda menonton berita malam,
- 922
- 01:00:58,170 --> 01:00:59,670
- dari saluran yang berbeda.
- 923
- 01:01:00,050 --> 01:01:02,430
- tiga penyiar yang berusaha
- menyiarkan yang benar.
- 924
- 01:01:02,430 --> 01:01:04,150
- mungkin terjadi bias
- antara mereka,
- 925
- 01:01:04,150 --> 01:01:07,550
- tapi kita semua setuju
- akan realita yang objektif.
- 926
- 01:01:08,300 --> 01:01:10,640
- Sehingga objektifitas kita menghilang,
- 927
- 01:01:10,640 --> 01:01:13,480
- dan Facebook telah berhasil
- menghilangkan itu.
- 928
- 01:01:17,150 --> 01:01:20,900
- Kalau kalian memahami bagaimana
- dunia bekerja dari Facebook,
- 929
- 01:01:20,900 --> 01:01:23,860
- yang diprakarsai oleh
- software algoritma yang kerjanya...
- 930
- 01:01:23,860 --> 01:01:26,450
- memberi Anda berita sesuai
- yang Anda inginkan,
- 931
- 01:01:27,280 --> 01:01:28,700
- akan membahayakan.
- 932
- 01:01:28,700 --> 01:01:31,900
- Tidak hanya kita menjadi
- pengikut arus,
- 933
- 01:01:33,000 --> 01:01:37,300
- tapi membiarkan aktor bad-faith
- mengakses informasi.
- 934
- 01:01:37,300 --> 01:01:39,250
- Itu adalah resep bencana.
- 935
- 01:01:43,250 --> 01:01:45,800
- Banyak sekali aktor
- yang buruk...
- 936
- 01:01:45,800 --> 01:01:48,000
- mencoba memanipulasi dunia
- dengan KB.
- 937
- 01:01:48,750 --> 01:01:53,600
- 2016 adalah contoh yang sempurna
- menjelang pemilu, banyak berita dari KB.
- 938
- 01:01:53,800 --> 01:01:56,150
- Memproduksi dan menyebarluaskan
- berita hoax...
- 939
- 01:01:56,150 --> 01:01:58,650
- demi sebuah tujuan
- dan hasil.
- 940
- 01:01:59,730 --> 01:02:02,080
- Tuan dan nyonya,
- yang saya hormati.
- 941
- 01:02:02,080 --> 01:02:05,160
- Sudah menjadi hak saya,
- berbicara tentang...
- 942
- 01:02:05,160 --> 01:02:07,800
- kekuatan dari data yang besar dan
- psikografik...
- 943
- 01:02:07,800 --> 01:02:09,500
- dalam proses pemilu.
- 944
- 01:02:09,500 --> 01:02:13,600
- Terutama membicarakan kinerja,
- yang menyokong kepada...
- 945
- 01:02:13,600 --> 01:02:16,290
- kampanye kepresidenan
- senator Cruz.
- 946
- 01:02:16,290 --> 01:02:19,100
- Cambridge Analytica
- diam-diam ikut serta.
- 947
- 01:02:19,100 --> 01:02:21,920
- Sebagai perusahaan yang
- berdasarkan banyak berita...
- 948
- 01:02:21,920 --> 01:02:25,550
- memiliki kemampuan untuk
- menggunakan data yang banyak sekali.
- 949
- 01:02:26,150 --> 01:02:29,050
- untuk memberi pengaruh
- pada perubahan sosial.
- 950
- 01:02:30,000 --> 01:02:34,950
- Di 2016 mereka memiliki 3 klien besar,
- Ted Cruz salah satunya.
- 951
- 01:02:34,950 --> 01:02:39,350
- Mudah melupakan yang terjadi
- 18 bulan lalu, Senator Cruz adalah...
- 952
- 01:02:39,350 --> 01:02:42,650
- salah satu kandidat yang
- kurang populer sebagai nominasi...
- 953
- 01:02:42,650 --> 01:02:47,070
- Jadi yang tidak mungkin saat
- 10 atau 15 tahun yang lalu...
- 954
- 01:02:47,070 --> 01:02:49,300
- adalah mengirim berita hoax...
- 955
- 01:02:49,300 --> 01:02:52,330
- ke orang-orang yang kalian inginkan.
- 956
- 01:02:52,330 --> 01:02:56,400
- Lalu bisa dilihat bagaimana
- reaksi mereka di Facebook,
- 957
- 01:02:56,400 --> 01:03:01,540
- lalu disesuaikan informasi tersebut
- tergantung feedback yang diterima.
- 958
- 01:03:01,540 --> 01:03:05,970
- Maka dimulai pengembangan
- manajemen populasi nyata.
- 959
- 01:03:06,650 --> 01:03:10,500
- Dalam kasus yang ini, sudah
- kami kelompokkan dan dinamai "Pembujuk",
- 960
- 01:03:10,500 --> 01:03:14,500
- ini adalah orang-orang yang
- sudah pasti memilih Caucus,
- 961
- 01:03:14,500 --> 01:03:18,280
- tapi harus digeser sedikit,
- dari tengah ke kanan sedikit.
- 962
- 01:03:18,280 --> 01:03:21,850
- Supaya dapat mendukung Cruz
- mereka butuh pesan membujuk.
- 963
- 01:03:21,850 --> 01:03:25,600
- "Hak senjata." Saya pilih,
- lingkaran kosong itu harus diisi sedikit.
- 964
- 01:03:25,600 --> 01:03:28,900
- Dan sekarang kita harus memberi
- pesan untuk "Hak senjata,"
- 965
- 01:03:28,900 --> 01:03:32,400
- dan pesannya harus membujuk,
- dan harus sedikit berbeda...
- 966
- 01:03:32,400 --> 01:03:35,800
- berdasarkan kepribadian
- seseorang yang kita tuju.
- 967
- 01:03:35,800 --> 01:03:39,780
- Di media sosial terdapat
- informasi yang tak terbatas...
- 968
- 01:03:39,780 --> 01:03:42,350
- untuk dikumpulkan
- mengenai tiap orang.
- 969
- 01:03:42,350 --> 01:03:45,650
- Kita hampir memiliki 4K sampai
- 5K titik data...
- 970
- 01:03:45,650 --> 01:03:48,300
- yang berisi tiap-tiap
- orang dewasa di United States.
- 971
- 01:03:48,420 --> 01:03:51,420
- Ini semua tentang
- menargetkan setiap individu.
- 972
- 01:03:51,800 --> 01:03:55,680
- Ini senjata yang bisa digunakan
- untuk ke arah yang menyimpang.
- 973
- 01:03:55,680 --> 01:03:57,890
- Itulah masalah yang timbul
- dari data.
- 974
- 01:03:57,890 --> 01:04:01,600
- Sudah seperti, kita membuat peluru
- sebelum kita membuat pestol.
- 975
- 01:04:02,060 --> 01:04:06,250
- Ted Cruz memperkerjakan data kita,
- juga wawasan kita tentang perilaku.
- 976
- 01:04:06,250 --> 01:04:09,350
- Dia mulai dari awal yang
- kurang dari 5%...
- 977
- 01:04:09,350 --> 01:04:13,350
- dan perlahan tapi pasti
- mengalami...
- 978
- 01:04:13,350 --> 01:04:16,000
- peningkatan yang pesat
- hingga 35%.
- 979
- 01:04:16,000 --> 01:04:20,210
- Membuat dia sebagai saingan nomor 2
- yang berbahaya dalam perlombaan.
- 980
- 01:04:20,210 --> 01:04:22,880
- Sudah jelas kampanye Cruz
- berakhir sekarang.
- 981
- 01:04:22,880 --> 01:04:26,600
- Tapi saya beritahu saja,
- pernah ada 2 kandidat yang...
- 982
- 01:04:26,600 --> 01:04:30,500
- keluar dari pemilu, salah satunya
- menggunakan teknologi ini.
- 983
- 01:04:32,350 --> 01:04:35,850
- Uwe Donald J. Trump
- brani sumvvah pocong...
- 984
- 01:04:35,850 --> 01:04:41,300
- lou uwe bakalan bener
- jadi presiden Yunitet Stet.
- 985
- 01:04:48,250 --> 01:04:50,650
- Pemilu adalah olahraga
- orang niat tidak niat...
- 986
- 01:04:50,650 --> 01:04:52,700
- tidak membutuhkan KB
- yang canggih.
- 987
- 01:04:53,100 --> 01:04:57,540
- Supaya menghasilkan
- pengaruh yang tidak seimbang.
- 988
- 01:04:58,850 --> 01:05:02,350
- Sebelum Trump, Brexit adalah
- seorang klien.
- 989
- 01:05:02,350 --> 01:05:04,600
- Sudah 20 menit menjelang
- pukul 5:00,
- 990
- 01:05:04,600 --> 01:05:08,550
- kita tahu kalau, keputusan
- yang dibuat tahun 1975...
- 991
- 01:05:08,550 --> 01:05:12,050
- oleh negara ini supaya bergabung
- dengan pasar bebas sudah diubah...
- 992
- 01:05:12,050 --> 01:05:15,950
- sehubungan dengan referendum ini
- untuk meninggalkan Eropa!
- 993
- 01:05:17,150 --> 01:05:20,060
- Cambridge Analytica diduga
- menggunakan KB...
- 994
- 01:05:20,060 --> 01:05:23,560
- untuk mendorong dua hal
- yang mengguncang dunia dalam...
- 995
- 01:05:23,560 --> 01:05:26,650
- perubahan politik,
- dari selama 50 tahun.
- 996
- 01:05:27,400 --> 01:05:30,550
- Ini adalah peristiwa bersejarah,
- kalau kita percaya berita netijen...
- 997
- 01:05:30,550 --> 01:05:32,600
- yang langsung terkoneksi
- dengan...
- 998
- 01:05:32,600 --> 01:05:36,950
- software yang diciptakan
- oleh seorang profesor di Stanford.
- 999
- 01:05:41,250 --> 01:05:45,460
- Saat 2013 saya sudah menjelaskan
- kalau yang mereka lakukan itu mungkin.
- 1000
- 01:05:45,460 --> 01:05:48,130
- Dan berupa peringatan untuk
- masa yang akan datang.
- 1001
- 01:05:49,200 --> 01:05:52,850
- Saat Michal Koshinski masih sebagai
- seorang mahasiswa riset,
- 1002
- 01:05:52,850 --> 01:05:54,800
- bekerja di pusat psikometrik.
- 1003
- 01:05:54,800 --> 01:05:57,450
- Yang Michal lakukan adalah
- mengumpulkan...
- 1004
- 01:05:57,450 --> 01:06:00,150
- set data terbesar
- yang pernah ada...
- 1005
- 01:06:00,150 --> 01:06:02,650
- tentang perilaku orang di Facebook.
- 1006
- 01:06:03,450 --> 01:06:06,550
- Psikometrik ialah teladan
- yang menghitung...
- 1007
- 01:06:06,550 --> 01:06:08,300
- sikap psikologis seperti...
- 1008
- 01:06:08,300 --> 01:06:11,690
- kepribadian, kecerdasan,
- pandangan politik dan seterusnya.
- 1009
- 01:06:11,690 --> 01:06:15,400
- Secara tradisional,
- kepribadian diukur dengan...
- 1010
- 01:06:15,400 --> 01:06:17,400
- tes dan pertanyaan.
- 1011
- 01:06:17,700 --> 01:06:20,530
- Tes kepribadian adalah
- hal yang tidak berbahaya.
- 1012
- 01:06:20,530 --> 01:06:23,200
- Hal yang tidak memerlukan
- banyak keperluan, benar?
- 1013
- 01:06:24,000 --> 01:06:27,250
- Menurut kami daripada
- memberi tes dan pertanyaan...
- 1014
- 01:06:27,250 --> 01:06:30,250
- kami lebih baik melihat
- jejak digital perilaku yang...
- 1015
- 01:06:30,250 --> 01:06:31,550
- kami sudah sediakan.
- 1016
- 01:06:32,330 --> 01:06:37,550
- Untuk memahami, keterbukaan,
- kehati-hatian, kemudah-tersinggungan.
- 1017
- 01:06:37,550 --> 01:06:40,200
- Bisa dibeli data pribadi
- yang berisi...
- 1018
- 01:06:40,200 --> 01:06:44,500
- alamat, keanggotaan klub,
- keanggotaan gym...
- 1019
- 01:06:44,500 --> 01:06:47,730
- Ada pasarnya yang menjual-belikan
- data pribadi.
- 1020
- 01:06:48,100 --> 01:06:51,650
- Akhirnya bisa diketahui hal buruk
- yang Anda lakukan, berdasarkan...
- 1021
- 01:06:51,650 --> 01:06:53,980
- set informasi yang sangat kecil.
- 1022
- 01:06:55,600 --> 01:06:59,000
- Kami melatih jaringan DeepLearning
- untuk...
- 1023
- 01:06:59,000 --> 01:07:01,150
- menyimpulkan kepribadian
- yang bertalian.
- 1024
- 01:07:01,150 --> 01:07:04,410
- Pandangan politik seseorang,
- kepribadian,
- 1025
- 01:07:04,410 --> 01:07:07,600
- kecerdasan, orientasi seks,
- 1026
- 01:07:07,600 --> 01:07:10,250
- hanya melalui gambar wajah
- seseorang.
- 1027
- 01:07:16,850 --> 01:07:20,300
- Pikirkan negara yang
- tidak bebas dan tidak terbuka.
- 1028
- 01:07:20,300 --> 01:07:22,050
- Kalau Anda bisa
- mengungkap...
- 1029
- 01:07:22,050 --> 01:07:25,310
- pandangan agamanya, politiknya,
- orientasi seksnya...
- 1030
- 01:07:25,800 --> 01:07:28,300
- berdasarkan foto profil.
- 1031
- 01:07:28,600 --> 01:07:31,020
- Maka ini akan menjadi masalah...
- 1032
- 01:07:31,020 --> 01:07:33,020
- hidup dan matinya.
- 1033
- 01:07:36,800 --> 01:07:39,280
- Saya pikir tidak ada
- jalan keluarnya.
- 1034
- 01:07:41,850 --> 01:07:44,320
- Kau tahu apa itu Tes Turing?
- 1035
- 01:07:45,500 --> 01:07:48,600
- Ketika manusia berinteraksi
- dengan komputer...
- 1036
- 01:07:48,600 --> 01:07:52,300
- kalau manusianya tidak tahu
- dia sedang interaksi dengan komputer,
- 1037
- 01:07:52,300 --> 01:07:53,670
- tesnya berhasil.
- 1038
- 01:07:54,590 --> 01:07:56,590
- Dan beberapa hari lagi...
- 1039
- 01:07:57,090 --> 01:07:59,510
- kau akan menjadi manusianya
- untuk Tes Turing.
- 1040
- 01:07:59,510 --> 01:08:02,000
- - Tidak mungkin.
- - Iya, begitulah Caleb,
- 1041
- 01:08:02,000 --> 01:08:03,800
- kau berhasil.
- 1042
- 01:08:03,800 --> 01:08:06,450
- Kalau tesnya berhasil.
- 1043
- 01:08:06,450 --> 01:08:09,350
- Kau, akan menjadi
- titik matinya...
- 1044
- 01:08:09,350 --> 01:08:12,190
- peristiwa terbesar dalam dunia sains
- dalam sejarah manusia.
- 1045
- 01:08:12,700 --> 01:08:14,540
- Kalau kau ciptakan
- mesin yang sadar...
- 1046
- 01:08:14,540 --> 01:08:16,540
- itu tidaklah menjadi
- sejarah manusia,
- 1047
- 01:08:17,400 --> 01:08:19,430
- itu akan menjadi
- sejarah bagi Tuhan.
- 1048
- 01:08:26,700 --> 01:08:30,000
- Teknologi sudah
- seperti Tuhan yang menjelma.
- 1049
- 01:08:33,040 --> 01:08:35,180
- Seperti cuaca.
- Kita tidak bisa merubahnya.
- 1050
- 01:08:35,180 --> 01:08:38,300
- Kita tidak bisa memundurkannya,
- menghentikannya.
- 1051
- 01:08:39,470 --> 01:08:41,760
- Kita seperti tidak berdaya.
- 1052
- 01:08:43,600 --> 01:08:46,550
- Kalau menurut kami Tuhan itu
- adalah Kecerdasan yang tak terhingga.
- 1053
- 01:08:46,550 --> 01:08:48,470
- supaya kita bisa dekat
- adalah dengan...
- 1054
- 01:08:49,100 --> 01:08:52,050
- meningkatkan kecerdasan kita dan
- menggabungkannya dengan...
- 1055
- 01:08:52,050 --> 01:08:54,270
- Kecerdasan Buatan yang
- kami ciptakan.
- 1056
- 01:08:55,450 --> 01:08:58,700
- Saat ini komputer, hp,
- aplikasi,
- 1057
- 01:08:58,700 --> 01:09:00,990
- memberi kita kemampuan
- menjadi manusia super.
- 1058
- 01:09:01,500 --> 01:09:04,110
- Pepatah tua mengatakan,
- "Kalau tidak bisa dikalahkan, bergabunglah."
- 1059
- 01:09:06,880 --> 01:09:09,800
- Ini semua tentang hubungan
- antara manusia dengan mesin.
- 1060
- 01:09:09,810 --> 01:09:11,350
- Kita semua sudah tahu,
- 1061
- 01:09:11,350 --> 01:09:14,770
- hp kita contohnya, sudah menjadi
- ingatan buatan kita, benar?
- 1062
- 01:09:14,780 --> 01:09:17,920
- Saya tidak perlu mengingat no. hp lagi
- karena sudah ada di hp saya.
- 1063
- 01:09:19,170 --> 01:09:21,900
- Ini tentang mesin untuk
- meningkatkan kemampuan manusia.
- 1064
- 01:09:21,910 --> 01:09:24,500
- Tidak dengan sebaliknya.
- 1065
- 01:09:25,090 --> 01:09:27,300
- Coba lihatlah setiap objek,
- yang berubah...
- 1066
- 01:09:27,300 --> 01:09:29,850
- dari analog ke digital
- dalam kurun 20 tahun.
- 1067
- 01:09:29,850 --> 01:09:31,850
- Banyak sekali.
- 1068
- 01:09:31,850 --> 01:09:35,500
- Kita adalah objek analog dalam
- teknologi digital.
- 1069
- 01:09:35,500 --> 01:09:38,750
- Yang jadi permasalahannya adalah
- input dan output datanya.
- 1070
- 01:09:38,750 --> 01:09:42,450
- Sangat terbatas,
- hanya ini dan ini.
- 1071
- 01:09:43,850 --> 01:09:47,910
- Mata kita bagus sekali, dapat
- menerima banyak informasi visual.
- 1072
- 01:09:48,750 --> 01:09:51,650
- Tapi outputnya sangat lemah.
- 1073
- 01:09:52,410 --> 01:09:56,200
- Alasanya sangat penting,
- kalau kita bayangkan suatu skenario...
- 1074
- 01:09:56,200 --> 01:09:59,380
- KB memainkan peran penting
- lebih banyak di masyarakat kita.
- 1075
- 01:09:59,380 --> 01:10:01,840
- Kami ingin lebih mendalami
- interaksi dengan teknologi.
- 1076
- 01:10:01,840 --> 01:10:04,800
- Maka akhirnya kita harus
- dikembangkan.
- 1077
- 01:10:08,400 --> 01:10:11,400
- Yang terpenting KB
- jangan sampai menjadi lain.
- 1078
- 01:10:12,100 --> 01:10:13,560
- Ia harus menjadi kita.
- 1079
- 01:10:14,700 --> 01:10:17,850
- Dan mungkin saya sudah salah kata.
- 1080
- 01:10:18,950 --> 01:10:22,650
- Saya hanya terbuka untuk
- setiap ide yang membuat lebih baik.
- 1081
- 01:10:24,250 --> 01:10:28,640
- Saya pikir, kita memang harus
- bergabung dengan KB atau tertinggal.
- 1082
- 01:10:36,150 --> 01:10:40,990
- Rasanya sulit melepas sistem yang
- sudah tersebar di planet ini.
- 1083
- 01:10:41,670 --> 01:10:44,760
- Juga sudah tersebar ke tata surya.
- 1084
- 01:10:45,650 --> 01:10:48,250
- Anda tidak bisa mematikannya
- begitu saja.
- 1085
- 01:10:49,470 --> 01:10:51,930
- Kita sudah membuka kotak Pandora,
- kita melepaskan...
- 1086
- 01:10:51,930 --> 01:10:55,350
- kekuatan yang tidak bisa
- dikendalikan, dihentikan.
- 1087
- 01:10:55,480 --> 01:10:59,520
- Kita berada ditengah-tengah
- penciptaan kehidupan baru di bumi.
- 1088
- 01:11:05,850 --> 01:11:07,550
- Kita tidak tahu apa
- yang akan terjadi,
- 1089
- 01:11:07,550 --> 01:11:10,820
- kita tidak tahun bagaimana
- bentuk mesin cerdasnya.
- 1090
- 01:11:10,820 --> 01:11:13,950
- Yang mana kecerdasan itu
- jauh melampaui kemampuan manusia.
- 1091
- 01:11:14,400 --> 01:11:16,620
- Itu bukan sesuatu
- yang mungkin.
- 1092
- 01:11:24,600 --> 01:11:26,300
- Yang mengerikan
- di masa depan adalah...
- 1093
- 01:11:26,300 --> 01:11:28,970
- kalau kita mendemokrasikan
- KB.
- 1094
- 01:11:31,350 --> 01:11:35,020
- Kalau sebuah perusahaan atau
- sekelompok kecil orang...
- 1095
- 01:11:35,020 --> 01:11:38,230
- mengembangkan digital super-cerdas,
- dia bisa menguasai dunia.
- 1096
- 01:11:40,150 --> 01:11:43,690
- Untungnya diktator jahat,
- sudah pada mati.
- 1097
- 01:11:44,250 --> 01:11:48,100
- Tapi KB tidak akan mati,
- ia akan hidup selamanya.
- 1098
- 01:11:49,250 --> 01:11:51,280
- Berarti akan hidup
- Diktator abadi.
- 1099
- 01:11:51,740 --> 01:11:53,370
- Yang tidak dapat dihindari.
- 1100
- 01:13:19,410 --> 01:13:27,230
- Pengerjaan Kecerdasan Buatan adalah
- industri miliaran dollar.
- 1101
- 01:13:27,230 --> 01:13:32,230
- Hampir tanpa regulasi.
- 1102
- 01:13:32,900 --> 01:13:35,250
- Project N.O.N.S.K.I
- Destroy human wanna-be god being.
Add Comment
Please, Sign In to add comment