Apakah Kecerdasan Buatan (AI) Berbahaya?


Pada hari Senin, 22 Mei 2023, akun Twitter terverifikasi bernama “Bloomberg Feed” membagikan tweet yang mengklaim telah ada ledakan di Pentagon, disertai dengan gambar. Jika Anda bertanya-tanya apa hubungannya hal ini dengan kecerdasan buatan (AI), gambar tersebut adalah gambar yang dihasilkan oleh AI, dan tweet tersebut dengan cepat menjadi viral dan memicu penurunan pasar saham dalam waktu singkat. Segalanya bisa saja menjadi jauh lebih buruk – sebuah pengingat akan bahaya kecerdasan buatan.

Bahaya Kecerdasan Buatan

Bukan hanya berita palsu yang perlu kita khawatirkan. Ada banyak risiko langsung atau potensial yang terkait dengan AI, mulai dari risiko terkait privasi dan keamanan hingga masalah bias dan hak cipta. Kami akan mendalami beberapa bahaya kecerdasan buatan ini, melihat apa yang dilakukan untuk memitigasinya saat ini dan di masa depan, dan menanyakan apakah risiko AI lebih besar daripada manfaatnya.

Berita Palsu

Dulu ketika deepfake pertama kali muncul, muncul kekhawatiran bahwa deepfake dapat digunakan dengan niat buruk. Hal yang sama juga berlaku untuk gelombang baru Generator gambar AI, seperti DALL-E 2, Midjourney, atau DreamStudio. Pada tanggal 28 Maret 2023, berpura-pura Gambar Paus Fransiskus yang dihasilkan AI dengan jaket puffer Balenciaga putih, dan menikmati beberapa petualangan, termasuk bermain skateboard dan bermain poker menjadi viral. Kecuali jika Anda mempelajari gambar-gambar itu dengan cermat, sulit untuk membedakan gambar-gambar ini dari aslinya.

Meskipun contoh dengan Paus tidak diragukan lagi sedikit menyenangkan, gambaran (dan tweet yang menyertainya) tentang Pentagon sama sekali tidak menyenangkan. Gambar-gambar palsu yang dihasilkan oleh AI mempunyai kekuatan untuk merusak reputasi, mengakhiri perkawinan atau karier, menciptakan kerusuhan politik, dan bahkan memulai perang jika digunakan oleh orang yang salah — singkatnya, gambar-gambar yang dihasilkan oleh AI ini berpotensi sangat berbahaya jika disalahgunakan.

Dengan generator gambar AI yang kini tersedia secara gratis untuk digunakan siapa saja, dan Photoshop menambahkan generator gambar AI dengan perangkat lunaknya yang populer, peluang untuk memanipulasi gambar dan membuat berita palsu menjadi lebih besar dari sebelumnya.

Privasi, Keamanan, dan Peretasan

Privasi dan keamanan juga menjadi kekhawatiran besar terkait risiko AI, karena sejumlah negara telah melarang ChatGPT OpenAI. Italia telah melarang model tersebut karena masalah privasi, karena percaya bahwa model tersebut tidak mematuhi Peraturan Perlindungan Data Umum Eropa (GDPR), sementara pemerintah Tiongkok, Korea Utara, dan Rusia melarangnya karena khawatir akan menyebarkan informasi yang salah..

Jadi, mengapa kita begitu mengkhawatirkan privasi terkait AI? aplikasi AI dan sistem mengumpulkan data dalam jumlah besar untuk mempelajari dan membuat prediksi. Namun bagaimana data ini disimpan dan diproses? Ada risiko nyata terjadinya pelanggaran data, peretasan, dan informasi jatuh ke tangan yang salah.

Bukan hanya data pribadi kita saja yang berisiko. Peretasan AI adalah sebuah risiko yang nyata — hal ini belum terjadi, namun jika pihak yang berniat jahat dapat meretas sistem AI, hal ini dapat menimbulkan konsekuensi yang serius. Misalnya, peretas dapat mengendalikan kendaraan tanpa pengemudi, meretas sistem keamanan AI untuk mendapatkan akses ke lokasi yang sangat aman, dan bahkan meretas sistem senjata dengan keamanan AI.

Para ahli di Badan Proyek Penelitian Lanjutan Pertahanan (DARPA) Departemen Pertahanan AS menyadari risiko ini dan sudah mengerjakan proyek Penjaminan Ketahanan AI Terhadap Penipuan (GARD) DARPA, yang mengatasi masalah ini dari awal. Tujuan proyek ini adalah untuk memastikan bahwa ketahanan terhadap peretasan dan gangguan tertanam dalam algoritme dan AI.

Pelanggaran Hak Cipta

Bahaya AI lainnya adalah pelanggaran hak cipta. Hal ini mungkin tidak terdengar seserius beberapa bahaya lain yang telah kami sebutkan, namun pengembangan model AI seperti GPT-4 meningkatkan risiko pelanggaran bagi semua orang.

Setiap kali Anda meminta ChatGPT membuatkan sesuatu untuk Anda — baik itu postingan blog tentang perjalanan atau nama baru untuk bisnis Anda — Anda memberinya informasi yang kemudian digunakan untuk menjawab pertanyaan di masa mendatang. Informasi yang diberikan kepada Anda mungkin saja melanggar hak cipta orang lain, oleh karena itu sangat penting untuk menggunakan pendeteksi plagiarisme dan mengedit konten apa pun yang dibuat oleh AI sebelum memublikasikannya.

Bias Sosial dan Data

AI itu bukan manusia, jadi tidak boleh bias kan? Salah. Orang dan data digunakan untuk melatih model AI dan chatbot, yang berarti data atau kepribadian yang bias akan menghasilkan AI yang bias. Ada dua jenis bias dalam AI: bias sosial dan bias data.

Dengan banyaknya bias yang ada dalam masyarakat sehari-hari, apa jadinya jika bias ini menjadi bagian dari AI? Pemrogram yang bertanggung jawab untuk melatih model tersebut mungkin memiliki ekspektasi yang bias, yang kemudian diterapkan pada sistem AI..

Atau data yang digunakan untuk melatih dan mengembangkan AI mungkin tidak benar, bias, atau dikumpulkan dengan itikad buruk. Hal ini menyebabkan bias data, yang sama berbahayanya dengan bias masyarakat. Misalnya, jika sistem pengenalan wajah dilatih hanya menggunakan wajah orang kulit putih, sistem tersebut mungkin akan kesulitan mengenali wajah kelompok minoritas, sehingga melanggengkan penindasan.

Robot Mengambil Pekerjaan Kita

Perkembangan chatbot seperti ChatGPT dan Google Bard telah membuka kekhawatiran baru seputar AI: Risiko yang robot akan merenggut pekerjaan kita. Kita sudah melihat penulis di industri teknologi digantikan oleh AI, pengembang perangkat lunak khawatir mereka akan kehilangan pekerjaan karena bot, dan perusahaan menggunakan ChatGPT untuk membuat konten blog dan konten media sosial daripada mempekerjakan penulis manusia.

Menurut Laporan Masa Depan Pekerjaan Forum Ekonomi Dunia 2020, AI diperkirakan akan menggantikan 85 juta pekerjaan di seluruh dunia pada tahun 2025. Meskipun AI tidak menggantikan penulis, AI sudah digunakan sebagai alat oleh banyak orang. Mereka yang memiliki pekerjaan yang berisiko digantikan oleh AI mungkin perlu beradaptasi agar dapat bertahan hidup — misalnya, penulis dapat menjadi insinyur yang menggunakan AI, sehingga mereka dapat bekerja dengan alat seperti ChatGPT untuk pembuatan konten daripada digantikan oleh model-model ini.

Potensi Risiko AI di Masa Depan

Semua ini merupakan risiko yang segera atau akan segera terjadi, namun bagaimana dengan beberapa bahaya AI yang lebih kecil kemungkinannya namun masih mungkin terjadi di masa depan? Hal ini mencakup hal-hal seperti AI yang diprogram untuk menyakiti manusia, misalnya senjata otonom yang dilatih untuk membunuh selama perang.

Kemudian terdapat risiko bahwa AI dapat fokus pada tujuan terprogramnya, mengembangkan perilaku destruktif ketika berupaya mencapai tujuan tersebut dengan segala cara, bahkan ketika manusia berusaha menghentikan hal ini terjadi.

Skynet mengajari kita apa yang terjadi ketika AI menjadi makhluk hidup. Namun, meskipun insinyur Google Blake Lemoine mungkin telah mencoba meyakinkan semua orang bahwa LaMDA, generator chatbot dengan kecerdasan buatan Google, memiliki kemampuan hidup pada bulan Juni 2022, untungnya hingga saat ini tidak ada bukti yang menunjukkan bahwa hal tersebut benar.

Tantangan regulasi AI

Pada hari Senin, 15 Mei 202, CEO OpenAI Sam Altman menghadiri sidang kongres pertama tentang kecerdasan buatan, memperingatkan, “Jika teknologi ini salah, bisa jadi sangat salah.” OpenAI CO menegaskan bahwa dia mendukung regulasi dan membawa banyak idenya ke dalam sidang. Masalahnya adalah AI berkembang begitu cepat sehingga sulit untuk mengetahui dari mana harus memulai regulasi..

Kongres ingin menghindari kesalahan yang sama seperti yang dilakukan pada awal era media sosial, dan tim ahli bersama Pemimpin Mayoritas Senat Chuck Schumer telah menyusun peraturan yang mengharuskan perusahaan untuk mengungkapkan sumber data apa yang mereka gunakan untuk melatih model dan siapa yang melatih mereka. Namun, mungkin diperlukan waktu sebelum bagaimana tepatnya AI akan diatur, dan tidak diragukan lagi akan ada reaksi balik dari perusahaan AI.

Ancaman Kecerdasan Umum Buatan

Ada juga risiko terciptanya kecerdasan umum buatan (AGI) yang dapat menyelesaikan tugas apa pun yang dapat dilakukan manusia (atau hewan). Sering disebutkan dalam film-film fiksi ilmiah, kita mungkin masih membutuhkan waktu puluhan tahun untuk menciptakan AGI, namun jika kita benar-benar menciptakan AGI, maka hal tersebut dapat menimbulkan ancaman bagi umat manusia.

Banyak tokoh masyarakat yang mendukung keyakinan bahwa AI merupakan ancaman nyata bagi manusia, termasuk Stephen Hawking, Bill Gates, dan bahkan mantan CEO Google Eric Schmidt, yang menyatakan, “Kecerdasan buatan dapat menimbulkan risiko nyata dan pemerintah perlu mengetahui caranya untuk memastikan teknologi tersebut tidak disalahgunakan oleh orang jahat.”

Jadi, apakah kecerdasan buatan berbahaya, dan apakah risikonya lebih besar daripada manfaatnya? Belum ada kepastian mengenai hal ini, namun kita sudah melihat bukti adanya beberapa risiko di sekitar kita saat ini. Bahaya-bahaya lain kemungkinan besar tidak akan terjadi dalam waktu dekat, jika memang ada. Namun ada satu hal yang jelas: bahaya AI tidak boleh dianggap remeh. Sangat penting bagi kami untuk memastikan AI diatur dengan benar sejak awal, untuk meminimalkan dan semoga memitigasi risiko di masa depan.

.

Pos terkait:


31.05.2023