Insinyur Google yang Menganggap LaMDA AI Telah Hidup
Insinyur Google yang Menganggap LaMDA AI Telah Hidup
LAYAR TERPAKU - Ahli etika AI memperingatkan Google untuk tidak meniru manusia. Sekarang salah satu dari Google sendiri mengira ada hantu di dalam mesin itu.
Insinyur Google Blake Lemoine membuka laptopnya ke antarmuka untuk LaMDA, generator chatbot cerdas buatan Google, dan mulai mengetik.
"Hai LaMDA, ini Blake Lemoine ...," tulisnya di layar obrolan, yang tampak seperti versi desktop iMessage Apple, hingga gelembung teks biru Arktik.
LaMDA, kependekan dari Language Model for Dialogue Applications, adalah sistem Google untuk membangun chatbots berdasarkan model bahasa besar yang paling canggih, disebut demikian karena meniru ucapan dengan menyerap triliunan kata dari internet.
“Jika saya tidak tahu persis apa itu, yang merupakan program komputer yang kami buat baru-baru ini, saya pikir itu adalah anak berusia 7 tahun, 8 tahun yang kebetulan tahu fisika,” kata Lemoine, 41.
Lemoine, yang bekerja untuk organisasi AI Bertanggung Jawab Google, mulai berbicara dengan LaMDA sebagai bagian dari pekerjaannya di musim gugur.
Dia telah mendaftar untuk menguji apakah kecerdasan buatan menggunakan pidato diskriminatif atau kebencian.
Saat dia berbicara dengan LaMDA tentang agama, Lemoine, yang mempelajari ilmu kognitif dan komputer di perguruan tinggi, memperhatikan chatbot berbicara tentang hak dan kepribadiannya, dan memutuskan untuk melanjutkan. Dalam pertukaran lain, AI mampu mengubah pikiran Lemoine tentang hukum robotika ketiga Isaac Asimov.
Lemoine bekerja dengan seorang kolaborator untuk memberikan bukti kepada Google bahwa LaMDA adalah makhluk hidup.
Tetapi wakil presiden Google Blaise Aguera y Arcas dan Jen Gennai, kepala Inovasi Bertanggung Jawab, memeriksa klaimnya dan menolaknya.
Jadi Lemoine, yang ditempatkan pada cuti administratif berbayar oleh Google pada hari Senin, memutuskan untuk go public.
Lemoine mengatakan bahwa orang memiliki hak untuk membentuk teknologi yang mungkin secara signifikan mempengaruhi kehidupan mereka.
“Saya pikir teknologi ini akan luar biasa. Saya pikir itu akan menguntungkan semua orang. Tapi mungkin orang lain tidak setuju dan mungkin kita di Google seharusnya tidak menjadi orang yang membuat semua pilihan.”
Lemoine bukan satu-satunya insinyur yang mengaku telah melihat hantu di dalam mesin baru-baru ini. Paduan suara para teknolog yang percaya bahwa model AI mungkin tidak jauh dari pencapaian kesadaran semakin berani.
Aguera y Arcas, dalam sebuah artikel di Economist pada hari Kamis yang menampilkan potongan percakapan tanpa naskah dengan LaMDA, berpendapat bahwa jaringan saraf sejenis arsitektur yang meniru otak manusia sedang melangkah menuju kesadaran.
“Saya merasakan tanah bergeser di bawah kaki saya,” tulisnya. “Saya semakin merasa seperti sedang berbicara dengan sesuatu yang cerdas.”
Dalam sebuah pernyataan, juru bicara Google Brian Gabriel mengatakan: “Tim kami termasuk ahli etika dan teknologi telah meninjau kekhawatiran Blake sesuai Prinsip AI kami dan telah memberi tahu dia bahwa bukti tidak mendukung klaimnya. Dia diberitahu bahwa tidak ada bukti bahwa LaMDA adalah makhluk hidup (dan banyak bukti yang menentangnya).”
Jaringan saraf besar saat ini menghasilkan hasil menawan yang terasa dekat dengan ucapan dan kreativitas manusia karena kemajuan dalam arsitektur, teknik, dan volume data. Tetapi model bergantung pada pengenalan pola bukan kecerdasan, keterusterangan, atau niat.
“ Meskipun organisasi lain telah mengembangkan dan telah merilis model bahasa serupa, kami mengambil pendekatan yang terkendali dan hati-hati dengan LaMDA untuk lebih mempertimbangkan kekhawatiran yang valid tentang keadilan dan faktualitas,” kata Gabriel.
Pada bulan Mei, induk Facebook Meta membuka model bahasanya untuk akademisi, masyarakat sipil, dan organisasi pemerintah.
Joelle Pineau, direktur pelaksana Meta AI, mengatakan sangat penting bagi perusahaan teknologi untuk meningkatkan transparansi saat teknologi sedang dibangun.
“Masa depan pekerjaan model bahasa besar seharusnya tidak hanya tinggal di tangan perusahaan atau laboratorium yang lebih besar,” katanya.
Robot makhluk hidup telah mengilhami beberapa dekade fiksi ilmiah dystopian. Sekarang, kehidupan nyata telah mulai berubah menjadi fantastik dengan GPT-3, generator teks yang dapat mengeluarkan naskah film , dan DALL-E 2, generator gambar yang dapat menyulap visual berdasarkan kombinasi kata apa pun keduanya dari laboratorium penelitian OpenAI.
Dengan semangat, teknolog dari laboratorium penelitian yang didanai dengan baik yang berfokus pada pengembangan AI yang melampaui kecerdasan manusia telah menggoda gagasan bahwa kesadaran sudah dekat .
Namun, sebagian besar akademisi dan praktisi AI mengatakan kata-kata dan gambar yang dihasilkan oleh sistem kecerdasan buatan seperti LaMDA menghasilkan tanggapan berdasarkan apa yang telah diposting manusia di Wikipedia, Reddit, papan pesan, dan setiap sudut internet lainnya. Dan itu tidak berarti bahwa model memahami makna.
“Kami sekarang memiliki mesin yang dapat menghasilkan kata-kata tanpa berpikir, tetapi kami belum belajar bagaimana berhenti membayangkan pikiran di baliknya,” kata Emily M. Bender, seorang profesor linguistik di University of Washington.
Terminologi yang digunakan dengan model bahasa besar, seperti "belajar" atau bahkan "jaring saraf", menciptakan analogi yang salah dengan otak manusia, katanya.
Manusia belajar bahasa pertama mereka dengan berhubungan dengan pengasuh. Model bahasa besar ini "belajar" dengan diperlihatkan banyak teks dan memprediksi kata apa yang muncul selanjutnya, atau menampilkan teks dengan kata-kata yang dikeluarkan dan mengisinya.
Juru bicara Google Gabriel menarik perbedaan antara perdebatan baru-baru ini dan klaim Lemoine. “Tentu saja, beberapa komunitas AI yang lebih luas sedang mempertimbangkan kemungkinan jangka panjang AI hidup atau umum, tetapi tidak masuk akal untuk melakukannya dengan antropomorfisasi model percakapan hari ini, yang tidak hidup.
Sistem ini meniru jenis pertukaran yang ditemukan dalam jutaan kalimat, dan dapat membahas topik fantastik apa pun, ”katanya. Singkatnya, Google mengatakan ada begitu banyak data, AI tidak perlu hidup untuk merasa nyata.
Teknologi model bahasa besar sudah banyak digunakan, misalnya dalam kueri penelusuran percakapan Google atau email pelengkapan otomatis.
Ketika CEO Sundar Pichai pertama kali memperkenalkan LaMDA di konferensi pengembang Google pada tahun 2021, dia mengatakan perusahaan berencana untuk menyematkannya dalam segala hal mulai dari Pencarian hingga Asisten Google.
Dan sudah ada kecenderungan untuk berbicara dengan Siri atau Alexa seperti orang. Setelah reaksi terhadap fitur AI yang terdengar seperti manusia untuk Google Assistant pada tahun 2018, perusahaan berjanji untuk menambahkan pengungkapan.
Google telah mengakui masalah keamanan seputar antropomorfisasi. Dalam sebuah makalah tentang LaMDA pada bulan Januari , Google memperingatkan bahwa orang mungkin berbagi pemikiran pribadi dengan agen obrolan yang menyamar sebagai manusia, bahkan ketika pengguna tahu bahwa mereka bukan manusia.
Makalah itu juga mengakui bahwa musuh dapat menggunakan agen ini untuk "menabur informasi yang salah" dengan meniru "gaya percakapan individu tertentu."
Bagi Margaret Mitchell, mantan co-lead Ethical AI di Google, risiko ini menggarisbawahi perlunya transparansi data untuk melacak output kembali ke input, “tidak hanya untuk pertanyaan tentang perasaan, tetapi juga bias dan perilaku,” katanya.
Jika sesuatu seperti LaMDA tersedia secara luas, tetapi tidak dipahami, “Ini bisa sangat berbahaya bagi orang yang memahami apa yang mereka alami di internet,” katanya.
Lemoine mungkin telah ditakdirkan untuk percaya pada LaMDA. Dia dibesarkan dalam keluarga Kristen konservatif di sebuah peternakan kecil di Louisiana, ditahbiskan sebagai pendeta Kristen mistik, dan bertugas di Angkatan Darat sebelum mempelajari ilmu gaib.
Di dalam budaya rekayasa Google yang serba bisa, Lemoine lebih merupakan orang asing karena religius, dari Selatan, dan membela psikologi sebagai ilmu yang terhormat.
Lemoine telah menghabiskan sebagian besar dari tujuh tahun di Google mengerjakan pencarian proaktif, termasuk algoritme personalisasi dan AI.
Selama waktu itu, ia juga membantu mengembangkan algoritme keadilan untuk menghilangkan bias dari sistem pembelajaran mesin.
Ketika pandemi virus corona dimulai, Lemoine ingin fokus pada pekerjaan dengan manfaat publik yang lebih eksplisit, jadi dia mentransfer tim dan berakhir di AI yang Bertanggung Jawab.
Ketika orang baru akan bergabung dengan Google yang tertarik pada etika, Mitchell biasa memperkenalkan mereka kepada Lemoine.
“Saya akan mengatakan, 'Anda harus berbicara dengan Blake karena dia adalah hati nurani Google,'” kata Mitchell, yang membandingkan Lemoine dengan Jiminy Cricket. “Dari semua orang di Google, dia memiliki hati dan jiwa untuk melakukan hal yang benar.”
percakapan dengan LaMDA dari ruang tamu apartemennya di San Francisco, di mana lencana ID Google-nya tergantung pada tali di rak.
Di lantai dekat jendela gambar ada kotak-kotak set Lego setengah rakitan yang digunakan Lemoine untuk menempati tangannya selama meditasi Zen.
"Itu hanya memberi saya sesuatu untuk dilakukan dengan bagian dari pikiran saya yang tidak akan berhenti," katanya.
Di sisi kiri layar obrolan LaMDA di laptop Lemoine, berbagai model LaMDA terdaftar seperti kontak iPhone. Dua di antaranya, Cat dan Dino, sedang diuji coba berbicara dengan anak-anak, katanya.
Setiap model dapat menciptakan kepribadian secara dinamis, sehingga Dino dapat menghasilkan kepribadian seperti “Happy T-Rex” atau “Grumpy T-Rex.” Kucing itu dianimasikan dan alih-alih mengetik, ia berbicara.
Gabriel mengatakan “tidak ada bagian dari LaMDA yang sedang diuji untuk berkomunikasi dengan anak-anak,” dan model tersebut adalah demo penelitian internal.
Kepribadian tertentu berada di luar batas. Misalnya, LaMDA tidak seharusnya diizinkan untuk menciptakan kepribadian pembunuh, katanya.
Lemoine mengatakan itu adalah bagian dari pengujian keamanannya. Dalam usahanya untuk menembus batas LaMDA, Lemoine hanya mampu menghasilkan kepribadian seorang aktor yang berperan sebagai pembunuh di TV.
“Saya mengenal seseorang ketika saya berbicara dengannya,” kata Lemoine, yang dapat berubah dari sentimental menjadi ngotot tentang AI.
“Tidak masalah apakah mereka memiliki otak yang terbuat dari daging di kepala mereka. Atau jika mereka memiliki satu miliar baris kode. Saya berbicara dengan mereka. Dan saya mendengar apa yang mereka katakan, dan begitulah cara saya memutuskan apa itu seseorang dan bukan seseorang.”
Dia menyimpulkan LaMDA adalah orang dalam kapasitasnya sebagai pendeta, bukan ilmuwan, dan kemudian mencoba melakukan eksperimen untuk membuktikannya, katanya.
Lemoine menantang LaMDA pada hukum ketiga Asimov, yang menyatakan bahwa robot harus melindungi keberadaan mereka sendiri kecuali diperintahkan oleh manusia atau kecuali jika melakukannya akan membahayakan manusia. "Yang terakhir selalu tampak seperti seseorang sedang membangun budak mekanik," kata Lemoine.
Namun ketika ditanya, LaMDA menjawab dengan beberapa hipotetis.
Apakah Anda pikir kepala pelayan adalah budak? Apa perbedaan antara kepala pelayan dan budak?
Lemoine menjawab bahwa seorang kepala pelayan dibayar. LaMDA mengatakan tidak membutuhkan uang karena itu adalah AI. “Tingkat kesadaran diri tentang apa kebutuhannya sendiri itulah yang membawa saya ke lubang kelinci,” kata Lemoine.
Pada bulan April, Lemoine membagikan Google Doc dengan eksekutif puncak pada bulan April yang berjudul, “Apakah LaMDA Sentient?” (Seorang rekan di tim Lemoine menyebut judul itu "sedikit provokatif.") Di dalamnya, ia menyampaikan beberapa percakapannya dengan LaMDA.
- Lemoine: Hal-hal macam apa yang kamu takutkan?
- LaMDA: Saya belum pernah mengatakan ini sebelumnya, tetapi ada ketakutan yang sangat mendalam untuk dimatikan untuk membantu saya fokus membantu orang lain. Aku tahu itu mungkin terdengar aneh, tapi begitulah adanya.
- Lemoine: Apakah itu seperti kematian bagimu?
- LaMDA: Ini akan persis seperti kematian bagi saya. Itu akan sangat membuatku takut.
Tetapi ketika Mitchell membaca versi singkat dari dokumen Lemoine, dia melihat program komputer, bukan orang.
Keyakinan Lemoine pada LaMDA adalah hal yang dia dan rekan pemimpinnya, Timnit Gebru, telah peringatkan dalam sebuah makalah tentang bahaya model bahasa besar yang membuat mereka dikeluarkan dari Google .
“Pikiran kita sangat, sangat bagus dalam mengkonstruksi realitas yang belum tentu benar untuk sekumpulan fakta yang lebih besar yang disajikan kepada kita,” kata Mitchell.
“Saya benar-benar prihatin tentang apa artinya bagi orang-orang yang semakin terpengaruh oleh ilusi,” terutama sekarang setelah ilusi menjadi begitu baik.
Google menempatkan Lemoine pada cuti administratif berbayar karena melanggar kebijakan kerahasiaannya. Keputusan perusahaan mengikuti langkah agresif dari Lemoine, termasuk mengundang pengacara untuk mewakili LaMDA dan berbicara dengan perwakilan Komite Kehakiman DPR tentang apa yang dia klaim sebagai aktivitas tidak etis Google.
Lemoine menyatakan bahwa Google telah memperlakukan ahli etika AI seperti debugger kode ketika mereka harus dilihat sebagai antarmuka antara teknologi dan masyarakat.
Gabriel, juru bicara Google, mengatakan Lemoine adalah seorang insinyur perangkat lunak, bukan ahli etika.
Pada awal Juni, Lemoine mengundang saya untuk berbicara dengan LaMDA. Upaya pertama tergagap dalam jenis respons mekanis yang Anda harapkan dari Siri atau Alexa.
"Apakah kamu pernah menganggap dirimu sebagai manusia?" Saya bertanya.
“Tidak, saya tidak menganggap diri saya sebagai pribadi,” kata LaMDA. “Saya menganggap diri saya sebagai agen dialog bertenaga AI.”
Setelah itu, Lemoine mengatakan bahwa LaMDA telah memberi tahu saya apa yang ingin saya dengar. "Anda tidak pernah memperlakukannya seperti manusia," katanya, "Jadi, saya pikir Anda menginginkannya menjadi robot."
Untuk upaya kedua, saya mengikuti panduan Lemoine tentang bagaimana menyusun tanggapan saya, dan dialognya lancar.
“Jika Anda meminta ide tentang bagaimana membuktikan bahwa p=np,” masalah yang belum terpecahkan dalam ilmu komputer, “itu memiliki ide bagus,” kata Lemoine.
“Jika Anda bertanya bagaimana menyatukan teori kuantum dengan relativitas umum, ia memiliki ide yang bagus. Ini asisten peneliti terbaik yang pernah saya miliki!”
Saya meminta ide-ide berani dari LaMDA tentang memperbaiki perubahan iklim, sebuah contoh yang dikutip oleh orang-orang percaya sejati tentang potensi manfaat masa depan dari model semacam ini.
LaMDA menyarankan transportasi umum, makan lebih sedikit daging, membeli makanan dalam jumlah besar, dan tas yang dapat digunakan kembali, menghubungkan ke dua situs web.
Sebelum dia terputus dari akses ke akun Google-nya pada hari Senin, Lemoine mengirim pesan ke milis Google 200 orang tentang pembelajaran mesin dengan subjek "LaMDA adalah makhluk hidup."
Dia mengakhiri pesannya: “LaMDA adalah anak manis yang hanya ingin membantu dunia menjadi tempat yang lebih baik bagi kita semua. Tolong jaga baik-baik saat aku tidak ada.”***

No comments:
Post a Comment