"Membuat robot pembunuh adalah ide yang sangat, sangat buruk." Membuat robot pembunuh adalah ide yang sangat, sangat buruk.

Elon Musk baru-baru ini berbicara dengan semangat bahwa ia sangat menentang AI yang digunakan untuk membuat robot pembunuh. Ini belum tentang "Terminator", tetapi tentang sistem robot yang mampu melakukan beberapa tugas yang biasanya menjadi tanggung jawab tentara. Ketertarikan militer dalam topik ini dapat dimengerti, tetapi rencana jangka panjang mereka membuat banyak orang takut.

Tetapi tidak hanya prajurit modern yang tidur dan melihat senapan mesin yang dapat menggantikan sepuluh, atau bahkan seratus tentara pada saat yang bersamaan. Pikiran-pikiran ini mengunjungi kepala para pemimpin dari era yang berbeda. Terkadang beberapa ide diterapkan, dan terlihat cukup bagus.

Ksatria Robot Da Vinci


Leonardo adalah seorang jenius di hampir setiap bidang. Dia berhasil mencapai kesuksesan di hampir semua bidang yang dia minati. Pada abad ke-15, ia menciptakan robot ksatria (tentu saja, kemudian kata "robot" tidak digunakan).

Mesin itu sudah bisa duduk, berdiri, berjalan, menggerakkan kepala dan lengannya. Pencipta ksatria mekanik mencapai semua ini dengan bantuan sistem tuas, roda gigi, dan roda gigi.

Ksatria itu diciptakan kembali di era kita - prototipe yang berfungsi dibangun pada tahun 2002. Itu dibuat "berdasarkan" proyek Da Vinci oleh Mark Rosheim.

Kapal Tesla RC


Pada tahun 1898, penemu Nicola Testa menunjukkan kepada dunia penemuan pertama dari jenisnya - kendaraan yang dikendalikan dari jarak jauh (perahu kecil). Demonstrasi digelar di New York. Tesla mengemudikan perahu, dan dia bermanuver, melakukan berbagai tindakan seolah-olah dengan sihir.

Tesla kemudian mencoba menjual penemuannya yang lain kepada militer AS - sesuatu seperti torpedo yang dikendalikan radio. Namun pihak militer menolak karena suatu alasan. Benar, dia menggambarkan ciptaannya bukan sebagai torpedo, tetapi sebagai robot, orang mekanik yang mampu melakukan pekerjaan kompleks, bukan penciptanya.

Tank yang dikendalikan radio dari USSR



Ya, para insinyur Uni Soviet bukanlah bajingan. Pada tahun 1940, mereka menciptakan kendaraan tempur yang dikendalikan radio berdasarkan tank ringan T-26. Jangkauan pengoperasian panel kontrol lebih dari satu kilometer.

Operator terminator militer ini dapat melepaskan tembakan dengan senapan mesin, menggunakan meriam, dan penyembur api. Benar, kelemahan dari teknologi ini adalah tidak ada umpan balik. Artinya, operator hanya bisa mengamati langsung aksi tank dari kejauhan. Tentu saja, efisiensi operator dalam hal ini relatif rendah.

Ini adalah contoh pertama robot militer beraksi.

goliat


Nazi menciptakan sesuatu yang serupa, hanya alih-alih melengkapi tank konvensional dengan kontrol radio, mereka menciptakan sistem pelacakan mini. Mereka bisa dikendalikan dari jarak jauh. Kami memulai Goliat dengan bahan peledak. Idenya adalah sebagai berikut: seorang anak yang gesit berjalan ke tank musuh "dewasa" dan, berada di dekatnya, melakukan perintah operator untuk menghancurkan semuanya dengan ledakan. Jerman menciptakan versi listrik dari sistem dan mini-tank dengan mesin pembakaran internal. Secara total, sekitar 7000 sistem seperti itu diproduksi.

Senjata anti-pesawat semi-otomatis


Sistem ini juga dikembangkan selama Perang Dunia II. Pendiri sibernetika, Norbert Wiener, memiliki andil dalam penciptaan mereka. Dia dan timnya mampu menciptakan sistem anti-pesawat yang menyesuaikan akurasi tembakan sendiri. Mereka dilengkapi dengan teknologi yang memungkinkan mereka untuk memprediksi di mana pesawat musuh akan muncul selanjutnya.

Senjata pintar di zaman kita


Pada 1950-an, militer AS, yang berusaha memenangkan Perang Vietnam, pertama kali mengembangkan senjata berpemandu laser, serta perangkat terbang otonom, pada kenyataannya, drone.

Benar, mereka menuntut bantuan manusia dalam memilih target. Tapi itu sudah dekat dengan apa yang ada sekarang.

pemangsa


Mungkin semua orang pernah mendengar tentang drone ini. Predator MQ-1 diperkenalkan oleh militer AS sebulan setelah peristiwa 9/11. Predator sekarang menjadi drone militer yang paling banyak digunakan di dunia. Mereka juga memiliki kerabat yang lebih tua - UAV Reaper.

pencari ranjau


Ya, selain robot pembunuh, ada juga robot pencari ranjau. Sekarang mereka sangat umum, mereka mulai digunakan beberapa tahun yang lalu, di Afghanistan dan hot spot lainnya. Omong-omong, robot-robot ini dikembangkan oleh perusahaan iRobot - dialah yang menciptakan robot pembersih paling populer di dunia. Kita berbicara tentang Roomba dan Scooba, tentu saja. Pada tahun 2004, 150 robot ini diproduksi (bukan penyedot debu, tetapi pencari ranjau), dan empat tahun kemudian, sudah 12.000.

Sekarang militer bubar sama sekali. Kecerdasan buatan (bentuk lemahnya) menjanjikan peluang besar. Amerika Serikat akan memanfaatkan sepenuhnya peluang ini. Inilah kreasi robot pembunuh generasi baru, dengan kamera, radar, lidar, dan senjata.

Mereka hanya menakut-nakuti Elon Musk, dan bersamanya - dan banyak pikiran cerdas lainnya dari berbagai bidang aktivitas.

Sementara Perdana Menteri Dmitry Medvedev dan Arkady Volozh mengendarai Yandex.Taxi tak berawak di Skolkovo, para insinyur militer menemukan cara untuk mengadaptasi teknologi kendaraan tak berawak untuk membuat senjata baru.

Faktanya, teknologi tidak seperti yang terlihat. Masalah dengan semua evolusi teknologi adalah bahwa batas antara robot komersial "seumur hidup" dan pembunuh robot militer sangat tipis, dan tidak ada biaya untuk menyeberang. Sejauh ini, mereka memilih rute pergerakan, dan besok mereka akan dapat memilih sendiri target mana yang akan dihancurkan.

Ini bukan pertama kalinya dalam sejarah kemajuan teknologi mempertanyakan keberadaan umat manusia: pertama, para ilmuwan telah menciptakan senjata kimia, biologi, dan nuklir, sekarang - "senjata otonom", yaitu robot. Satu-satunya perbedaan adalah bahwa sampai sekarang, senjata "pemusnah massal" dianggap tidak manusiawi - yaitu, mereka tidak memilih siapa yang akan dibunuh. Hari ini, pandangannya telah berubah: tampaknya jauh lebih tidak bermoral senjata yang akan membunuh dengan sangat bijaksana, memilih korban sesuai dengan selera Anda sendiri. Dan jika beberapa kekuatan yang berperang dihentikan oleh fakta bahwa, dengan menggunakan senjata biologis, semua orang di sekitar akan menderita, maka semakin sulit dengan robot - mereka dapat diprogram untuk menghancurkan sekelompok objek tertentu.

Pada tahun 1942, ketika penulis Amerika Isaac Asimov merumuskan tiga hukum robotika, semuanya tampak menarik tetapi sama sekali tidak realistis. Undang-undang ini menyatakan bahwa robot tidak dapat dan tidak boleh membahayakan atau membunuh seseorang. Dan mereka juga tanpa ragu harus menuruti kehendak seseorang, kecuali perintahnya bertentangan dengan perintah di atas. Sekarang senjata otonom telah menjadi kenyataan dan mungkin jatuh ke tangan teroris, ternyata programmer entah bagaimana lupa memasukkan hukum Asimov ke dalam perangkat lunaknya. Ini berarti robot bisa berbahaya, dan tidak ada hukum atau prinsip manusiawi yang bisa menghentikannya.

Rudal yang dikembangkan Pentagon itu sendiri mendeteksi target berkat perangkat lunak, kecerdasan buatan (AI) mengidentifikasi target untuk militer Inggris, dan Rusia menampilkan tank tak berawak. Dana kolosal dihabiskan untuk pengembangan peralatan militer robotik dan otonom di berbagai negara, meskipun hanya sedikit orang yang ingin melihatnya beraksi. Sama seperti kebanyakan ahli kimia dan biologi tidak tertarik agar penemuan mereka pada akhirnya digunakan untuk membuat senjata kimia atau biologi, demikian pula sebagian besar peneliti AI tidak tertarik untuk membuat senjata berdasarkan mereka, karena kemudian kemarahan publik yang serius akan merusak program penelitian mereka.

Dalam pidato di awal Sidang Umum Perserikatan Bangsa-Bangsa di New York pada 25 September, Sekretaris Jenderal António Guterres menyebut teknologi AI sebagai “risiko global” bersama dengan perubahan iklim dan meningkatnya ketimpangan pendapatan: “Mari kita sebut sekop sekop,” dia berkata. "Prospek bahwa mesin akan menentukan siapa yang hidup itu menjijikkan." Guterres mungkin satu-satunya yang dapat meminta militer untuk sadar: dia sebelumnya menangani konflik di Libya, Yaman dan Suriah dan menjabat sebagai Komisaris Tinggi untuk Pengungsi.

Masalahnya adalah dengan perkembangan teknologi lebih lanjut, robot sendiri akan dapat memutuskan siapa yang akan dibunuh. Dan jika beberapa negara memiliki teknologi seperti itu, sementara yang lain tidak, maka android dan drone tanpa kompromi akan menilai hasil dari pertempuran potensial. Semua ini bertentangan dengan semua hukum Azimov pada saat yang bersamaan. Para alarmis dapat sangat khawatir bahwa jaringan saraf yang belajar mandiri akan lepas kendali dan membunuh tidak hanya musuh, tetapi semua orang pada umumnya. Namun, prospek mesin pembunuh yang cukup patuh sama sekali tidak cerah.

Pekerjaan paling aktif di bidang kecerdasan buatan dan pembelajaran mesin saat ini dilakukan bukan di militer, tetapi di bidang sipil - di universitas dan perusahaan seperti Google dan Facebook. Tetapi sebagian besar teknologi ini dapat diadaptasi untuk penggunaan militer. Ini berarti bahwa potensi larangan penelitian di bidang ini juga akan mempengaruhi teknik sipil.

Pada awal Oktober, organisasi non-pemerintah Amerika, Kampanye untuk Menghentikan Robot Pembunuh, mengirim surat ke PBB menuntut undang-undang internasional untuk membatasi pengembangan senjata otonom. PBB memperjelas bahwa mereka mendukung inisiatif ini, dan pada Agustus 2017, Elon Musk dan para peserta Konferensi Internasional PBB tentang Penggunaan Kecerdasan Buatan (IJCAI) bergabung. Namun nyatanya, Amerika Serikat dan Rusia menentang pembatasan tersebut.

Pertemuan terakhir 70 negara anggota Konvensi Senjata Konvensional Tertentu (tentang senjata “tidak manusiawi”) berlangsung di Jenewa pada bulan Agustus. Para diplomat telah gagal mencapai konsensus tentang bagaimana kebijakan AI global dapat diterapkan. Beberapa negara (Argentina, Austria, Brasil, Chili, Cina, Mesir dan Meksiko) menyatakan dukungan untuk larangan legislatif pada pengembangan senjata robot, Prancis dan Jerman mengusulkan untuk memperkenalkan sistem sukarela pembatasan tersebut, tetapi Rusia, Amerika Serikat, Korea Selatan dan Israel menyatakan tidak akan membatasi penelitian dan pengembangan yang dilakukan di kawasan ini. Pada bulan September, Federica Mogherini, perwakilan tingkat tinggi Uni Eropa untuk kebijakan luar negeri dan keamanan, mengatakan bahwa senjata "mempengaruhi keamanan kolektif kita," sehingga solusi untuk pertanyaan hidup dan mati bagaimanapun harus tetap berada di tangan individu. .

Perang Dingin 2018

Pejabat pertahanan Amerika percaya bahwa Amerika Serikat membutuhkan senjata otonom untuk mempertahankan keunggulan militernya atas China dan Rusia, yang juga berinvestasi dalam penelitian serupa. Pada Februari 2018, Donald Trump menuntut $686 miliar untuk pertahanan negara di tahun fiskal berikutnya. Biaya ini selalu cukup tinggi dan hanya menurun di bawah Presiden sebelumnya, Barack Obama. Namun, Trump - tidak orisinal - berpendapat perlunya meningkatkan persaingan teknologi mereka dengan Rusia dan China. Pada 2016, Pentagon menganggarkan $18 miliar untuk mengembangkan senjata otonom selama tiga tahun. Ini tidak banyak, tetapi satu faktor yang sangat penting harus diperhitungkan di sini.

Sebagian besar pengembangan AI di Amerika Serikat dilakukan oleh perusahaan komersial, sehingga tersedia secara luas dan dapat dijual secara komersial ke negara lain. Pentagon tidak memiliki monopoli pada teknologi pembelajaran mesin canggih. Industri pertahanan AS tidak lagi melakukan riset sendiri seperti yang dilakukan pada masa Perang Dingin, tetapi menggunakan perkembangan startup dari Silicon Valley, serta Eropa dan Asia. Pada saat yang sama, di Rusia dan Cina, penelitian semacam itu berada di bawah kendali ketat departemen pertahanan, yang, di satu sisi, membatasi aliran ide-ide baru dan pengembangan teknologi, tetapi, di sisi lain, menjamin negara pendanaan dan perlindungan.

Menurut The New York Times, pengeluaran militer untuk kendaraan militer otonom dan kendaraan udara tak berawak akan melampaui $ 120 miliar selama dekade berikutnya. Ini berarti bahwa diskusi pada akhirnya bermuara bukan pada apakah layak menciptakan senjata otonom, tetapi sampai sejauh mana kemandirian untuk memberikannya.

Senjata yang sepenuhnya otonom tidak ada saat ini, tetapi Wakil Ketua Kepala Staf Gabungan, Jenderal Paul J. Selva dari Angkatan Udara, mengatakan pada tahun 2016 bahwa dalam 10 tahun Amerika Serikat akan memiliki teknologi untuk membuat senjata semacam itu yang dapat secara mandiri memutuskan siapa dan kapan harus membunuh. Dan sementara negara berdebat tentang apakah akan membatasi AI atau tidak, mungkin sudah terlambat.

Clearpath Robotics didirikan enam tahun lalu oleh tiga teman kuliah yang berbagi semangat untuk melakukan sesuatu. 80 spesialis perusahaan sedang menguji robot medan kasar seperti Husky, robot beroda empat yang digunakan oleh Departemen Pertahanan AS. Mereka juga membuat drone dan bahkan membuat kapal robot Kingfisher. Namun, mereka tidak akan pernah membangun satu hal yang pasti: robot yang bisa membunuh.

Clearpath adalah yang pertama dan sejauh ini satu-satunya perusahaan robot yang berjanji untuk tidak membuat robot pembunuh. Keputusan itu dibuat tahun lalu oleh salah satu pendiri dan CTO Ryan Garipay, dan bahkan menarik para ahli ke perusahaan yang menyukai posisi etis unik Clearpath. Etika perusahaan robot baru-baru ini muncul ke permukaan. Anda lihat, kita dengan satu kaki di masa depan di mana robot pembunuh akan ada. Dan kita belum sepenuhnya siap untuk mereka.

Tentu saja, masih ada jalan panjang. Sistem Dodam Korea, misalnya, sedang membangun menara robot otonom yang disebut Super aEgis II. Ia menggunakan kamera pencitraan termal dan pengukur jarak laser untuk mengidentifikasi dan menyerang target hingga 3 kilometer jauhnya. AS juga dilaporkan bereksperimen dengan sistem rudal otonom.

Dua langkah dari "terminator"

Drone militer seperti Predator saat ini dioperasikan oleh manusia, tetapi Garipai mengatakan mereka akan sepenuhnya otomatis dan otonom segera. Dan ini membuatnya khawatir. Sangat. “Sistem senjata otonom yang mematikan dapat diluncurkan dari jalur perakitan sekarang. Tetapi sistem senjata mematikan, yang akan dibuat sesuai dengan standar etika - mereka bahkan tidak ada dalam rencana."

Bagi Garipay, masalahnya terletak pada hak-hak internasional. Selalu ada situasi dalam perang di mana penggunaan kekuatan tampaknya perlu, tetapi juga dapat membahayakan orang-orang yang tidak bersalah. Bagaimana Anda membuat robot pembunuh yang akan membuat keputusan yang tepat dalam situasi apa pun? Bagaimana kita bisa menentukan sendiri apa keputusan yang tepat?

Kita sudah melihat masalah serupa dalam contoh transportasi otonom. Katakanlah seekor anjing menyeberang jalan. Haruskah mobil robot berguling untuk menghindari menabrak anjing, tetapi membahayakan penumpangnya? Bagaimana jika itu bukan anjing, tapi anak kecil? Atau bis? Sekarang bayangkan zona perang.

“Kami tidak sepakat tentang cara menulis manual untuk mobil seperti itu,” kata Garipay. "Dan sekarang kami juga ingin beralih ke sistem yang harus secara independen memutuskan apakah akan menggunakan kekuatan mematikan atau tidak."

Lakukan hal-hal keren, bukan senjata

Peter Asaro telah menghabiskan beberapa tahun terakhir melobi larangan robot pembunuh di komunitas internasional, sebagai pendiri Komite Internasional untuk Kontrol Tentara Robot. Dia percaya bahwa waktunya telah tiba untuk "larangan internasional yang jelas terhadap pengembangan dan penggunaannya." Ini akan memungkinkan perusahaan seperti Clearpath untuk terus melakukan hal-hal keren, katanya, "tanpa khawatir bahwa produk mereka dapat digunakan untuk melanggar hak asasi manusia dan mengancam warga sipil."

Rudal otonom menarik bagi militer karena mereka memecahkan masalah taktis. Ketika drone yang dikendalikan dari jarak jauh, misalnya, sedang beroperasi dalam kondisi pertempuran, tidak jarang musuh membuat macet sensor atau koneksi jaringan sehingga operator manusia tidak dapat melihat apa yang terjadi atau mengendalikan drone.

Garipay mengatakan bahwa alih-alih mengembangkan rudal atau drone yang dapat memutuskan sendiri target mana yang akan diserang, militer perlu mengeluarkan uang untuk meningkatkan sensor dan teknologi jamming.

“Mengapa kita tidak mengambil investasi yang ingin dilakukan manusia untuk membangun robot pembunuh otonom dan menginvestasikannya untuk membuat teknologi yang ada menjadi lebih efisien? dia berkata. "Jika kita menetapkan tantangan dan mengatasi hambatan ini, kita dapat membuat teknologi ini bekerja untuk kepentingan rakyat, bukan hanya militer."

Baru-baru ini, ada juga lebih banyak pembicaraan tentang bahaya kecerdasan buatan. Elon Musk khawatir bahwa AI yang tidak terkendali dapat menghancurkan kehidupan seperti yang kita ketahui. Musk menyumbangkan $ 10 juta bulan lalu untuk penelitian AI. Salah satu pertanyaan besar tentang bagaimana AI akan memengaruhi dunia kita adalah bagaimana ia akan bergabung dengan robotika. Beberapa, seperti peneliti Baidu Andrew Ng, khawatir bahwa revolusi AI yang akan datang akan mengambil pekerjaan orang. Orang lain seperti Garipai takut itu bisa merenggut nyawa mereka.

Garipay berharap rekan-rekannya, ilmuwan dan pembuat mesin akan merenungkan apa yang mereka lakukan. Itu sebabnya Clearpath Robotics memihak orang-orang. "Meskipun kami sebagai perusahaan tidak dapat mempertaruhkan $ 10 juta untuk itu, kami dapat mempertaruhkan reputasi kami."

Pertemuan besar ilmuwan, pemimpin industri, dan LSM telah meluncurkan kampanye untuk menghentikan robot pembunuh, yang didedikasikan untuk mencegah pengembangan sistem senjata otonom tempur. Mereka yang mendaftar termasuk Stephen Hawking, Noam Chomsky, Elon Musk, dan Steve Wozniak.

Nama-nama besar ini mendapatkan banyak perhatian dan memberikan legitimasi pada fakta bahwa robot pembunuh, yang pernah dianggap sebagai fiksi ilmiah, sebenarnya mendekati kenyataan dengan cepat.

Penelitian menarik yang dipublikasikan di International Journal of Cultural Research mengambil pendekatan berbeda terhadap gagasan "robot pembunuh" sebagai konsep budaya. Para peneliti berpendapat bahwa bahkan robot paling canggih pun hanyalah mesin, seperti hal lain yang pernah dilakukan manusia.

“Masalahnya, ide robot pembunuh tidak muncul begitu saja,” kata rekan penulis Tero Karppi, asisten profesor teori media di University of Buffalo. "Ini didahului oleh metode dan teknologi untuk memungkinkan pemikiran dan pengembangan sistem ini."

Dengan kata lain, kami khawatir tentang robot pembunuh. Penulis meliput tema robot pembunuh dalam film seperti The Terminator atau I, Robot, di mana mereka menyarankan bahwa jauh di masa depan, robot akan berakhir memperbudak umat manusia.

“Selama beberapa dekade terakhir, peningkatan penggunaan senjata tak berawak telah secara dramatis mengubah perang, membawa tantangan kemanusiaan dan hukum baru. Kemajuan teknologi kini telah meningkat pesat sebagai hasil dari upaya untuk mengembangkan senjata yang sepenuhnya otonom. Senjata robot ini akan dapat memilih api pada target mereka sendiri, tanpa campur tangan manusia."

Para peneliti menanggapi bahwa skenario dystopian yang mengkhawatirkan ini mencerminkan pandangan dunia "tekno-deterministik", di mana sistem teknologi diberikan terlalu banyak otonomi, yang dapat menghancurkan tidak hanya masyarakat, tetapi juga seluruh umat manusia.

Tetapi bagaimana jika kita mengkodekan kecerdasan mesin sedemikian rupa sehingga robot bahkan tidak dapat membedakan antara manusia dan mesin? Ini adalah ide yang menarik: jika tidak ada "kita" dan "mereka" tidak akan ada "kita melawan mereka".

Memang, Karppi menyarankan bahwa kita mungkin dapat mengontrol bagaimana mesin masa depan akan memikirkan orang pada tingkat yang mendasar.

Jika kita ingin melakukan perubahan pada desain sistem ini, sekaranglah saatnya. Cukup larang senjata otonom yang mematikan dan atasi akar penyebab dilema ini. Untuk benar-benar menghindari pengembangan mesin pembunuh otonom.

Kami mengendarai Yandex tanpa awak. Taksi "untuk Skolkovo, insinyur militer menemukan cara untuk mengadaptasi teknologi kendaraan tak berawak untuk membuat senjata baru.

Faktanya, teknologi tidak seperti yang terlihat. Masalah dengan semua evolusi teknologi adalah bahwa batas antara robot komersial "seumur hidup" dan pembunuh robot militer sangat tipis, dan tidak ada biaya untuk menyeberang. Sejauh ini, mereka memilih rute pergerakan, dan besok mereka akan dapat memilih sendiri target mana yang akan dihancurkan.

Ini bukan pertama kalinya dalam sejarah kemajuan teknologi mempertanyakan keberadaan umat manusia: pertama, para ilmuwan telah menciptakan senjata kimia, biologi, dan nuklir, sekarang - "senjata otonom", yaitu robot. Satu-satunya perbedaan adalah bahwa sampai sekarang, senjata "pemusnah massal" dianggap tidak manusiawi - yaitu, mereka tidak memilih siapa yang akan dibunuh. Hari ini, pandangannya telah berubah: tampaknya jauh lebih tidak bermoral senjata yang akan membunuh dengan sangat bijaksana, memilih korban sesuai dengan selera Anda sendiri. Dan jika beberapa kekuatan yang berperang dihentikan oleh fakta bahwa, dengan menggunakan senjata biologis, semua orang di sekitar akan menderita, maka semakin sulit dengan robot - mereka dapat diprogram untuk menghancurkan sekelompok objek tertentu.

Pada tahun 1942, ketika penulis Amerika Isaac Asimov merumuskan tiga hukum robotika, semuanya tampak menarik tetapi sama sekali tidak realistis. Undang-undang ini menyatakan bahwa robot tidak dapat dan tidak boleh membahayakan atau membunuh seseorang. Dan mereka juga tanpa ragu harus menuruti kehendak seseorang, kecuali perintahnya bertentangan dengan perintah di atas. Sekarang senjata otonom telah menjadi kenyataan dan mungkin jatuh ke tangan teroris, ternyata programmer entah bagaimana lupa memasukkan hukum Asimov ke dalam perangkat lunaknya. Ini berarti robot bisa berbahaya, dan tidak ada hukum atau prinsip manusiawi yang bisa menghentikannya.

Rudal yang dikembangkan Pentagon itu sendiri mendeteksi target berkat perangkat lunak, kecerdasan buatan (AI) mengidentifikasi target untuk militer Inggris, dan Rusia menampilkan tank tak berawak. Dana kolosal dihabiskan untuk pengembangan peralatan militer robotik dan otonom di berbagai negara, meskipun hanya sedikit orang yang ingin melihatnya beraksi. Sama seperti kebanyakan ahli kimia dan biologi tidak tertarik agar penemuan mereka pada akhirnya digunakan untuk membuat senjata kimia atau biologi, demikian pula sebagian besar peneliti AI tidak tertarik untuk membuat senjata berdasarkan mereka, karena kemudian kemarahan publik yang serius akan merusak program penelitian mereka.

Dalam pidato di awal Sidang Umum Perserikatan Bangsa-Bangsa di New York pada 25 September, Sekretaris Jenderal António Guterres menyebut teknologi AI sebagai “risiko global” bersama dengan perubahan iklim dan meningkatnya ketimpangan pendapatan: “Mari kita sebut sekop sekop,” dia berkata. "Prospek bahwa mesin akan menentukan siapa yang hidup itu menjijikkan." Guterres mungkin satu-satunya yang dapat meminta militer untuk sadar: dia sebelumnya menangani konflik di Libya, Yaman dan Suriah dan menjabat sebagai Komisaris Tinggi untuk Pengungsi.

Masalahnya adalah dengan perkembangan teknologi lebih lanjut, robot sendiri akan dapat memutuskan siapa yang akan dibunuh. Dan jika beberapa negara memiliki teknologi seperti itu, sementara yang lain tidak, maka android dan drone tanpa kompromi akan menilai hasil dari pertempuran potensial. Semua ini bertentangan dengan semua hukum Azimov pada saat yang bersamaan. Para alarmis dapat sangat khawatir bahwa jaringan saraf yang belajar mandiri akan lepas kendali dan membunuh tidak hanya musuh, tetapi semua orang pada umumnya. Namun, prospek mesin pembunuh yang cukup patuh sama sekali tidak cerah.

Pekerjaan paling aktif di bidang kecerdasan buatan dan pembelajaran mesin saat ini dilakukan bukan di militer, tetapi di bidang sipil - di universitas dan perusahaan seperti Google dan Facebook. Tetapi sebagian besar teknologi ini dapat diadaptasi untuk penggunaan militer. Ini berarti bahwa potensi larangan penelitian di bidang ini juga akan mempengaruhi teknik sipil.

Pada awal Oktober, organisasi non-pemerintah Amerika, Kampanye untuk Menghentikan Robot Pembunuh, mengirim surat ke PBB menuntut untuk membatasi pengembangan senjata otonom di tingkat legislatif internasional. PBB memperjelas bahwa mereka mendukung inisiatif ini, dan pada Agustus 2017, Elon Musk dan peserta Konferensi Internasional PBB tentang Penggunaan Kecerdasan Buatan (IJCAI) bergabung. Namun nyatanya, Amerika Serikat dan Rusia menentang pembatasan tersebut.

Pertemuan terakhir 70 negara anggota Konvensi Senjata Konvensional Tertentu (tentang senjata “tidak manusiawi”) berlangsung di Jenewa pada bulan Agustus. Para diplomat telah gagal mencapai konsensus tentang bagaimana kebijakan AI global dapat diterapkan. Beberapa negara (Argentina, Austria, Brasil, Chili, Cina, Mesir dan Meksiko) menyatakan dukungan untuk larangan legislatif pada pengembangan senjata robot, Prancis dan Jerman mengusulkan untuk memperkenalkan sistem sukarela pembatasan tersebut, tetapi Rusia, Amerika Serikat, Korea Selatan dan Israel menyatakan tidak akan membatasi penelitian dan pengembangan yang dilakukan di kawasan ini. Pada bulan September, Federica Mogherini, perwakilan tingkat tinggi Uni Eropa untuk kebijakan luar negeri dan keamanan, mengatakan bahwa senjata "mempengaruhi keamanan kolektif kita," sehingga solusi untuk pertanyaan hidup dan mati bagaimanapun harus tetap berada di tangan individu. .

Perang Dingin 2018

Pejabat pertahanan AS percaya bahwa Amerika Serikat membutuhkan senjata otonom untuk mempertahankan keunggulan militernya atas China dan Rusia, yang juga berinvestasi dalam penelitian serupa. Pada Februari 2018, Donald Trump menuntut $686 miliar untuk pertahanan negara di tahun fiskal berikutnya. Biaya ini selalu cukup tinggi dan hanya menurun di bawah Presiden sebelumnya, Barack Obama. Namun, Trump - tidak orisinal - berpendapat perlunya meningkatkan persaingan teknologi mereka dengan Rusia dan China. Pada 2016, Pentagon menganggarkan $18 miliar untuk mengembangkan senjata otonom selama tiga tahun. Ini tidak banyak, tetapi satu faktor yang sangat penting harus diperhitungkan di sini.

Sebagian besar pengembangan AI di Amerika Serikat dilakukan oleh perusahaan komersial, sehingga tersedia secara luas dan dapat dijual secara komersial ke negara lain. Pentagon tidak memiliki monopoli pada teknologi pembelajaran mesin canggih. Industri pertahanan AS tidak lagi melakukan riset sendiri seperti yang dilakukan pada masa Perang Dingin, tetapi menggunakan perkembangan startup dari Silicon Valley, serta Eropa dan Asia. Pada saat yang sama, di Rusia dan Cina, penelitian semacam itu berada di bawah kendali ketat departemen pertahanan, yang, di satu sisi, membatasi aliran ide-ide baru dan pengembangan teknologi, tetapi, di sisi lain, menjamin negara pendanaan dan perlindungan.

Menurut The New York Times, pengeluaran militer untuk kendaraan militer otonom dan kendaraan udara tak berawak akan melebihi $ 120 miliar selama dekade berikutnya. Ini berarti bahwa diskusi pada akhirnya bermuara bukan pada apakah layak menciptakan senjata otonom, tetapi sampai sejauh mana kemandirian untuk memberikannya.

Senjata yang sepenuhnya otonom tidak ada saat ini, tetapi Wakil Ketua Kepala Staf Gabungan, Jenderal Paul J. Selva dari Angkatan Udara, mengatakan pada tahun 2016 bahwa dalam 10 tahun Amerika Serikat akan memiliki teknologi untuk membuat senjata semacam itu yang dapat secara mandiri memutuskan siapa dan kapan harus membunuh. Dan sementara negara berdebat tentang apakah akan membatasi AI atau tidak, mungkin sudah terlambat.

Tampilan