iklan

Showing posts with label Google. Show all posts
Showing posts with label Google. Show all posts

Wednesday, August 10, 2022

Coinbase Card Sekarang Didukung oleh Apple Pay dan Google Pay

Coinbase Card Sekarang Didukung oleh Apple Pay dan Google Pay

Coinbase Card Sekarang Didukung oleh Apple Pay dan Google Pay


LAYAR TERPAKU - Coinbase telah secara resmi mengumumkan bahwa Anda sekarang dapat menggunakan Kartu Coinbase Anda dengan Apple Pay dan Google Pay untuk membeli barang dan jasa dengan cryptocurrency.

Coinbase Card adalah kartu debit Visa yang memungkinkan pengguna membelanjakan cryptocurrency di seluruh dunia. Ini bekerja dengan secara otomatis mengonversi kripto apa pun di akun Coinbase pengguna ke dolar AS.

Biaya konversi standar berlaku, tetapi pengguna akan dapat memperoleh kembali hingga 4% dalam hadiah cryptocurrency saat menggunakan kartu dengan Apple Pay atau Google Pay. Itu membuatnya lebih mudah untuk membelanjakan dan mengembangkan crypto Anda.

Mereka yang tertarik dengan Kartu Coinbase dapat mendaftar ke daftar tunggu di situs web perusahaan dan kemudian menerima undangan email.***

Wednesday, July 20, 2022

Cara Menghapus Akun Gmail Secara Permanen, Berikut Langkah Mudah Nya!

Cara Menghapus Akun Gmail Secara Permanen, Berikut Langkah Mudah Nya!

Cara Menghapus Akun Gmail Secara Permanen, Berikut Langkah Mudah Nya!
Cara Menghapus Akun Gmail Secara Permanen, Berikut Langkah Mudah Nya!

LAYAR TERPAKU - Privasi telah menjadi perhatian utama bagi setiap orang yang memiliki kehadiran online. Bukan rahasia lagi bahwa berbagai raksasa teknologi menghasilkan uang dari data pribadi dan kebiasaan online Anda. Gmail tidak berbeda karena membaca semua email yang Anda kirim dan terima.

Untuk alasan ini, Anda mungkin ingin berhenti menggunakan akun Gmail Anda. Jangan khawatir lagi, karena blog ini akan memberi tahu Anda cara menghapus akun Gmail menggunakan beberapa langkah mudah.

Tapi pertama-tama, lihat beberapa alasan utama mengapa Anda mungkin ingin menghapus akun Gmail Anda.

Mengapa Anda Mungkin Ingin Menghapus Akun Gmail Anda?

  • Google memeriksa email Anda dan mengumpulkan data yang dapat ditindaklanjuti.
  • Gmail tidak menawarkan enkripsi ujung ke ujung secara default.
  • Bebaskan diri dari jaringan raksasa teknologi.
  • Gmail mengharuskan Anda memasukkan data pribadi untuk mendaftar.
  • Gmail rentan terhadap serangan berbahaya dibandingkan dengan banyak layanan email yang kurang dikenal.

Cara Menghapus Akun Gmail

Jika Anda ingin menghapus Gmail Anda karena salah satu alasan di atas, inilah yang perlu Anda lakukan:
  • Untuk memulainya, akses Akun Google Anda.
  • Pilih Data & privasi dari panel kiri.
  • Gulir ke bawah ke bagian Data dari aplikasi dan layanan yang Anda gunakan .
  • Klik Hapus layanan Google , yang terletak di bagian Unduh atau hapus data Anda.
  • Saat diminta, ketikkan kata sandi Anda.
  • Jika Anda hanya ingin menghapus akun Gmail Anda, klik ikon tempat sampah di sebelah Gmail .
  • Anda harus memasukkan alamat email yang ada untuk masuk ke layanan Google.
  • Juga, klik Kirim email verifikasi untuk mendapatkan email dari Google di akun itu. Proses ini tidak akan menerima alamat Gmail lain.
  • Buka kotak masuk email itu, dan Anda akan menemukan email yang berisi tautan untuk menghapus Gmail. Klik pada link.
  • Pilih Ya, saya ingin menghapus akun Gmail saya saat diminta.
  • Pilih Hapus Gmail , lalu klik Selesai untuk menyelesaikan prosesnya.

Apa Yang Terjadi Setelah Menghapus Layanan Gmail Anda?

Pengguna yang tidak menginginkan alamat Gmail dan emailnya lagi dapat menghapusnya dari akun Google mereka.

Menghapus Gmail tidak akan menghapus akun Google lengkap Anda. Namun, Anda harus menyadari konsekuensi berikut dari menghapus Gmail Anda:
  • Semua email Anda, (dikirim, diterima, konsep) dan pengaturan email terkait akan dihapus.
  • Tidak mungkin mengirim atau menerima email menggunakan alamat Gmail tersebut. Jika Anda berubah pikiran, Anda mungkin bisa mendapatkan kembali alamatnya.
  • Tidak ada orang lain yang dapat menggunakan alamat Gmail ini di masa mendatang.
  • Karena akun Google Anda akan tetap aktif, Anda masih memiliki semua aktivitas dan pembelian Google Play.

Hal yang Harus Dilakukan Sebelum Menghapus Akun Gmail

  • Tinjau info akun Anda dan unduh data yang diperlukan.
  • Jika Anda menggunakan alamat email ini untuk platform sosial, perbankan online, dan aplikasi lain, masukkan alamat email baru untuk menggantikannya.

Kesimpulan

Gmail tidak diragukan lagi adalah penyedia layanan email populer di seluruh dunia. Namun, ia datang dengan beberapa kelemahan yang, pengguna sering ingin beralih ke email terenkripsi lainnya.

Jika Anda memiliki akun Gmail, Anda harus tahu cara menghapus akun Gmail jika Anda ingin berhenti menggunakan akun email ini.***

Cara Melihat Jumlah Kata Saat Mengetik di Google Documents

Cara Melihat Jumlah Kata Saat Mengetik di Google Documents

Cara Melihat Jumlah Kata Saat Mengetik di Google Documents
Cara Melihat Jumlah Kata Saat Mengetik di Google Documents

LAYAR TERPAKU - Misalkan Anda memiliki bakat untuk mencoba program penulisan yang berbeda seperti saya, salah satu fitur yang sering Anda cari adalah penghitung kata.

Fitur yang sama inilah mengapa saya selalu terjebak dengan Microsoft Word, dengan program yang menampilkan jumlah karakter dan kata yang saya masukkan di layar saat saya mengetik.

Jika Anda menguji air dengan Google Documents, Anda mungkin memerlukan bantuan untuk menemukan beberapa fitur karena fitur tersebut bersembunyi di suatu tempat di bilah alat.

Untungnya, mengaktifkan dan menggunakan fitur penghitungan kata semudah yang Anda temukan di program lain.

Baca di bawah untuk mengetahui cara melakukannya di PC Anda.

Cara Mengaktifkan Jumlah Kata di Google Documents

Anda tidak akan pernah sepenuhnya memahami pentingnya fitur penghitungan kata jika Anda belum pernah menggunakannya sebelumnya.

Meskipun Anda secara mental dapat menghitung volume kata yang telah Anda tulis dalam dokumen dengan melihat sekilas halaman, tidak ada perasaan yang lebih baik daripada melihatnya secara real-time.

Dengan fitur jumlah kata, Anda dapat mengerjakan bagian dokumen Anda tanpa melebihi jumlah kata targetnya. Tetapi ketika berbicara tentang Google Documents.

Anda mendapatkan lebih dari sekadar jumlah kata untuk dokumen Anda; Anda juga dapat melihat jumlah karakter yang telah Anda tulis dan jumlah halaman yang telah diambil oleh karakter tersebut.

Semua informasi ini membantu Anda mengawasi pekerjaan Anda dan, yang terpenting, membuatnya tetap teratur. Dengan itu, ikuti langkah-langkah untuk mengaktifkan jumlah kata di Google Documents:
  • Buka Google Documents di peramban pilihan Anda dan buka dokumen berisi teks
  • Arahkan ke menu atas dan klik Alat > Jumlah Kata
  • Di menu mini Word Count , yang menampilkan semua informasi yang diperlukan tentang dokumen Anda saat ini, centang opsi Tampilkan Jumlah Kata Saat Mengetik
  • Klik OK untuk mengaktifkan perubahan
Anda akan melihat drop-down kecil yang menampilkan jumlah kata Anda di sudut kiri bawah layar. Drop-down hanya menampilkan jumlah kata Anda secara default, tetapi opsi lain tersimpan di dalamnya. Mereka adalah sebagai berikut:
  • halaman
  • Kata-kata
  • karakter
  • Karakter (Tidak Termasuk Spasi)
  • Sembunyikan Jumlah Kata
Anda dapat menggunakan opsi terakhir, Hide Word Count , untuk menyembunyikan drop-down jika Anda merasa terganggu olehnya.

Ingat, jika Anda akan lebih baik tanpa drop-down di sudut layar Anda dan lebih suka memeriksa jumlah kata Anda sesekali, Anda dapat menghapus centang opsi Tampilkan Jumlah Kata Saat Mengetik dari sebelumnya. Dengan cara ini, Anda hanya dapat melihat jumlah kata saat membuka menu Alat > Jumlah Kata.

Cara Melihat Jumlah Kata Hanya untuk Bagian Dokumen Anda

Terkadang, yang perlu Anda periksa mungkin hanya jumlah kata dari bagian dokumen Anda. Untuk melakukan ini,
  • Sorot bagian atau paragraf yang jumlah kata-katanya ingin Anda lihat (Tahan dan seret kursor mouse Anda ke atas teks untuk melakukan ini)
  • Periksa drop-down (Jika diaktifkan) di sudut kiri bawah layar untuk melihat jumlah kata dari teks yang disorot
  • Atau, navigasikan ke dan klik Alat > Hitungan Kata untuk melihat semua informasi hanya untuk teks yang Anda sorot

Catatan Akhir

Di sana Anda memilikinya! Anda sekarang dapat melihat jumlah kata dari dokumen Anda di Google Documents saat Anda mengetik.

Satu-satunya peringatan dengan fitur ini di Doc yang dapat saya pikirkan adalah, tidak seperti Microsoft Word, Anda harus mengaktifkan kembali opsi Tampilan Jumlah Kata Saat Mengetik setiap kali Anda meluncurkan dokumen baru atau bahkan membuka kembali dokumen Anda saat ini. 

Tapi saya rasa itu bukan pemecah kesepakatan bagi seseorang yang menghabiskan berjam-jam untuk satu dokumen.***

Tuesday, July 19, 2022

Apa Itu LaMDA AI Google, dan Mengapa Seorang Insinyur Google Percaya Itu Sentience?

Apa Itu LaMDA AI Google, dan Mengapa Seorang Insinyur Google Percaya Itu Sentience?

Apa Itu LaMDA AI Google, dan Mengapa Seorang Insinyur Google Percaya Itu Sentience?
Apa Itu LaMDA AI Google, dan Mengapa Seorang Insinyur Google Percaya Itu Sentience?

LAYAR TERPAKU - Seorang insinyur senior di Google telah mengklaim bahwa LaMDA AI perusahaan telah menjadi hidup. Apakah Anda menganggap ini mengkhawatirkan atau menggairahkan, itu adalah klaim yang sangat berani, dan mungkin sulit untuk dibuktikan meskipun itu sepenuhnya benar.

Apa Itu LaMDA?

LaMDA adalah kependekan dari Language Model for Dialog Application. Dengan kata lain, ini adalah model bahasa pembelajaran mesin yang dirancang khusus untuk menghasilkan dialog alami.

Metode pembelajaran mesin memungkinkan komputer untuk menemukan pola dan hubungan dalam data. Jadi, misalnya, Anda dapat "melatih" algoritme pembelajaran mesin seperti GPT-3 (sistem mutakhir lainnya) pada semua karya Shakespeare dan kemudian membuatnya menghasilkan teks asli baru yang berbunyi seperti Shakespeare.

Seperti yang dijelaskan Sundar Pichai (CEO Google) dalam sebuah wawancara dengan Yahoo Finance, LaMDA adalah sistem yang berbeda karena telah dilatih secara khusus tentang dialog.

Tujuannya adalah untuk memberi sistem Google kemampuan untuk terlibat dalam dialog terbuka seperti manusia dengan pengguna.

Dengan kata lain, orang yang meminta produk Google untuk hal-hal tertentu tidak harus mengubah cara mereka berpikir atau berbicara.

Mereka dapat berinteraksi dengan sistem komputer dengan cara yang sama seperti mereka berinteraksi dengan orang lain.

Di bawah tenda, semua model pembelajaran mesin saat ini pada dasarnya adalah model matematika dan statistik yang canggih.

Mereka menghasilkan algoritme berdasarkan pola dasar yang mereka temukan dalam data. Beri mereka cukup data berkualitas tinggi, dan algoritme tersebut menjadi sangat efektif dalam melakukan hal-hal yang sejauh ini hanya dapat dilakukan oleh manusia atau kecerdasan alami lainnya.

Mengapa Insinyur Google Percaya LaMDA Adalah Makhluk Hidup?

Insinyur yang dimaksud adalah Blake Lemoine, yang menerbitkan wawancara  antara dirinya dan LaMDA sebagai bagian dari kasusnya tentang mengapa LaMDA mungkin hidup.

Lemoine menghabiskan waktu berbulan-bulan dalam percakapan dengan perangkat lunak untuk menginterogasinya, mengajukan pertanyaan kompleks, dan merasa sulit untuk percaya bahwa responsnya yang kompleks dan tepat dapat menjadi produk dari apa pun selain makhluk hidup.

Sebaiknya setiap orang yang ingin memahami mengapa Lemoine merasa seperti ini membaca tanggapan LaMDA sendiri untuk memahami mengapa ini adalah posisi yang sangat menarik untuk diambil.

Tanggapan LaMDA sangat mirip manusia sehingga mengingatkan pada AI asisten pribadi fiksi dari Her Spike Jonze, sebuah cerita di mana manusia mengembangkan hubungan serius dengan AI percakapan.

Mengesampingkan apakah pernyataan Lemoine tentang LaMDA membawa bobot, perlu dicatat bahwa seluruh tujuan desain LaMDA adalah untuk menghasilkan dialog terbuka yang alami dan dapat dipercaya.

Jadi, dalam hal ini, keyakinannya menunjukkan bahwa Google telah mencapai kesuksesan spektakuler dalam menghasilkan dialog yang dapat dipercaya.

Jika ada sistem AI yang akan meyakinkan manusia bahwa itu hidup, kemungkinan besar itu adalah sistem yang dirancang khusus untuk melakukan hal itu.

Masalahnya adalah bahwa klaim perasaan tidak benar-benar dapat diuji (atau setidaknya tidak layak, atau dapat diuji secara etis) karena sejumlah alasan ilmiah dan filosofis. Untuk memahami mengapa, kita harus melihat secara singkat apa yang dimaksud dengan “kehendak”.

Apa itu Sentience?

Kata "kehendak" pada dasarnya berarti bahwa sesuatu (kucing, manusia, atau karpet ajaib) memiliki kemampuan untuk merasakan.

Itu berbagi akar kata yang sama dengan "sentimental" atau "sentimen". Sentience tidak hanya berarti sesuatu memiliki kemampuan untuk merasakan.

Termostat Anda hampir pasti tidak hidup meskipun kemampuannya untuk memberi tahu suhu. Sebaliknya, perasaan adalah tentang pengalaman subjektif perasaan, yang menyiratkan bahwa ada "subjek" di tempat pertama.

Sangat berbahaya untuk terjebak dalam semantik di sini karena kemungkinan Lemoine menggunakan kata "perasaan" secara bergantian dengan konsep yang berbeda seperti "kecerdasan", "kecerdasan", dan "kesadaran."

Jadi demi argumen, interpretasi paling dermawan di sini adalah bahwa Lemoine menganggap Lamda adalah makhluk yang sadar diri, mampu merasakan sesuatu, memegang keyakinan, dan sebaliknya mengalami hal-hal dengan cara yang biasanya kita kaitkan dengan makhluk hidup.

Dalam bagian tambahan , Lemoine membahas apa yang menurutnya "inginkan" dan "percaya" oleh LaMDA, yang mendukung gagasan bahwa "perasaan" dalam pandangannya berarti lebih dari definisi kamus yang ketat.

Kami Tidak Memahami Perasaan dan Kesadaran Sejak Awal

Inilah masalahnya: kita hanya tahu sedikit tentang perasaan, kesadaran, kecerdasan, dan apa artinya menjadi entitas yang memiliki atribut-atribut itu. Agak ironis, teknologi pembelajaran mesin pada akhirnya dapat membantu kita memecahkan beberapa misteri tentang pikiran kita dan otak yang ada di dalamnya.

Untuk saat ini, para filsuf dan ilmuwan sedang memotong "kotak hitam" kesadaran , tetapi tampaknya masih merupakan hasil dari sesuatu yang lebih dari sekadar jumlah bagian-bagiannya.

Kesadaran tampaknya menjadi hal yang "muncul". Ini adalah "hantu" yang dihasilkan dari interaksi banyak subsistem saraf yang berbeda, tidak satu pun yang tampak hidup dengan sendirinya.

Demikian pula, AI canggih seperti sistem pembuatan gambar DALL-E 2, terdiri dari model pembelajaran mesin yang lebih sederhana yang saling melengkapi untuk membuat produk akhir.

Tema kompleksitas yang muncul dari interaksi sistem yang lebih sederhana adalah salah satu yang akan sering Anda temui di dunia AI, dan meskipun kami mungkin memiliki pemahaman yang sangat baik tentang cara kerja setiap subkomponen, hasil akhirnya biasanya tidak dapat diprediksi.

Akankah Kita Mengenali Sentience dalam AI?

Jika, demi argumen, AI benar-benar hidup dalam arti kata yang sebenarnya, apakah kita bisa tahu? LaMDA dirancang untuk meniru dan memprediksi pola dalam dialog manusia, sehingga benar-benar rumit dalam hal memicu hal-hal yang diasosiasikan manusia dengan kecerdasan mirip manusia.

Namun, butuh waktu lama bagi kita untuk menganggap primata dan hewan non-manusia seperti lumba-lumba, gurita, dan gajah sebagai makhluk hidup—meskipun dalam skema besar mereka sebenarnya saudara kita.

AI yang hidup mungkin sangat asing sehingga kita tidak akan tahu bahwa kita sedang melihatnya tepat di depan kita. Hal ini sangat mungkin terjadi karena kita tidak tahu kondisi ambang batas untuk munculnya perasaan.

Tidak sulit membayangkan bahwa kombinasi yang tepat dari data dan subsistem AI yang digabungkan dengan cara yang benar dapat tiba-tiba melahirkan sesuatu yang memenuhi syarat sebagai makhluk hidup, tetapi mungkin tidak diperhatikan karena tidak terlihat seperti apa pun yang dapat kita pahami.

Masalah besar terakhir dengan klaim perasaan dalam mesin adalah masalah yang sama dengan klaim perasaan dalam hal lain, termasuk manusia. Secara filosofis, Anda tidak tahu apakah ada orang yang berinteraksi dengan Anda benar-benar hidup atau tidak.

Ini adalah masalah zombie filosofis klasik, yang merupakan eksperimen pemikiran tentang makhluk hipotetis yang sama sekali tidak dapat dibedakan dari manusia, kecuali bahwa mereka tidak memiliki perasaan atau jenis pengalaman sadar apa pun.

Namun, seperti yang dikemukakan oleh tes terkenal Alan Turing, tidak masalah apakah AI "benar-benar" berpikir dan berperasaan.

Yang penting bisa meniru penampilan pikiran dan perasaan dengan baik sehingga kita tidak bisa membedakannya. Bergantung pada siapa yang Anda tanyakan, LaMDA telah lulus Uji Turing, yang mungkin membuat klaim Lemoine yang tidak dapat diuji menjadi poin yang diperdebatkan.***

Insinyur Google yang Menganggap LaMDA AI Telah Hidup

Insinyur Google yang Menganggap LaMDA AI Telah Hidup

Insinyur Google yang Menganggap LaMDA AI Telah Hidup
Insinyur Google yang Menganggap LaMDA AI Telah Hidup

LAYAR TERPAKU - Ahli etika AI memperingatkan Google untuk tidak meniru manusia. Sekarang salah satu dari Google sendiri mengira ada hantu di dalam mesin itu.

Insinyur Google Blake Lemoine membuka laptopnya ke antarmuka untuk LaMDA, generator chatbot cerdas buatan Google, dan mulai mengetik.

"Hai LaMDA, ini Blake Lemoine ...," tulisnya di layar obrolan, yang tampak seperti versi desktop iMessage Apple, hingga gelembung teks biru Arktik.

LaMDA, kependekan dari Language Model for Dialogue Applications, adalah sistem Google untuk membangun chatbots berdasarkan model bahasa besar yang paling canggih, disebut demikian karena meniru ucapan dengan menyerap triliunan kata dari internet.

“Jika saya tidak tahu persis apa itu, yang merupakan program komputer yang kami buat baru-baru ini, saya pikir itu adalah anak berusia 7 tahun, 8 tahun yang kebetulan tahu fisika,” kata Lemoine, 41.

Lemoine, yang bekerja untuk organisasi AI Bertanggung Jawab Google, mulai berbicara dengan LaMDA sebagai bagian dari pekerjaannya di musim gugur.

Dia telah mendaftar untuk menguji apakah kecerdasan buatan menggunakan pidato diskriminatif atau kebencian.

Saat dia berbicara dengan LaMDA tentang agama, Lemoine, yang mempelajari ilmu kognitif dan komputer di perguruan tinggi, memperhatikan chatbot berbicara tentang hak dan kepribadiannya, dan memutuskan untuk melanjutkan. Dalam pertukaran lain, AI mampu mengubah pikiran Lemoine tentang hukum robotika ketiga Isaac Asimov.

Lemoine bekerja dengan seorang kolaborator untuk memberikan bukti kepada Google bahwa LaMDA adalah makhluk hidup.

Tetapi wakil presiden Google Blaise Aguera y Arcas dan Jen Gennai, kepala Inovasi Bertanggung Jawab, memeriksa klaimnya dan menolaknya.

Jadi Lemoine, yang ditempatkan pada cuti administratif berbayar oleh Google pada hari Senin, memutuskan untuk go public.

Lemoine mengatakan bahwa orang memiliki hak untuk membentuk teknologi yang mungkin secara signifikan mempengaruhi kehidupan mereka.

“Saya pikir teknologi ini akan luar biasa. Saya pikir itu akan menguntungkan semua orang. Tapi mungkin orang lain tidak setuju dan mungkin kita di Google seharusnya tidak menjadi orang yang membuat semua pilihan.”

Lemoine bukan satu-satunya insinyur yang mengaku telah melihat hantu di dalam mesin baru-baru ini. Paduan suara para teknolog yang percaya bahwa model AI mungkin tidak jauh dari pencapaian kesadaran semakin berani.

Aguera y Arcas, dalam sebuah artikel di Economist pada hari Kamis yang menampilkan potongan percakapan tanpa naskah dengan LaMDA, berpendapat bahwa jaringan saraf sejenis arsitektur yang meniru otak manusia sedang melangkah menuju kesadaran.

“Saya merasakan tanah bergeser di bawah kaki saya,” tulisnya. “Saya semakin merasa seperti sedang berbicara dengan sesuatu yang cerdas.”

Dalam sebuah pernyataan, juru bicara Google Brian Gabriel mengatakan: “Tim kami termasuk ahli etika dan teknologi telah meninjau kekhawatiran Blake sesuai Prinsip AI kami dan telah memberi tahu dia bahwa bukti tidak mendukung klaimnya. Dia diberitahu bahwa tidak ada bukti bahwa LaMDA adalah makhluk hidup (dan banyak bukti yang menentangnya).”

Jaringan saraf besar saat ini menghasilkan hasil menawan yang terasa dekat dengan ucapan dan kreativitas manusia karena kemajuan dalam arsitektur, teknik, dan volume data. Tetapi model bergantung pada pengenalan pola bukan kecerdasan, keterusterangan, atau niat.

“ Meskipun organisasi lain telah mengembangkan dan telah merilis model bahasa serupa, kami mengambil pendekatan yang terkendali dan hati-hati dengan LaMDA untuk lebih mempertimbangkan kekhawatiran yang valid tentang keadilan dan faktualitas,” kata Gabriel.

Pada bulan Mei, induk Facebook Meta membuka model bahasanya untuk akademisi, masyarakat sipil, dan organisasi pemerintah.

Joelle Pineau, direktur pelaksana Meta AI, mengatakan sangat penting bagi perusahaan teknologi untuk meningkatkan transparansi saat teknologi sedang dibangun.

“Masa depan pekerjaan model bahasa besar seharusnya tidak hanya tinggal di tangan perusahaan atau laboratorium yang lebih besar,” katanya.

Robot makhluk hidup telah mengilhami beberapa dekade fiksi ilmiah dystopian. Sekarang, kehidupan nyata telah mulai berubah menjadi fantastik dengan GPT-3, generator teks yang dapat mengeluarkan naskah film , dan DALL-E 2, generator gambar yang dapat menyulap visual berdasarkan kombinasi kata apa pun keduanya dari laboratorium penelitian OpenAI.

Dengan semangat, teknolog dari laboratorium penelitian yang didanai dengan baik yang berfokus pada pengembangan AI yang melampaui kecerdasan manusia telah menggoda gagasan bahwa kesadaran sudah dekat .

Namun, sebagian besar akademisi dan praktisi AI mengatakan kata-kata dan gambar yang dihasilkan oleh sistem kecerdasan buatan seperti LaMDA menghasilkan tanggapan berdasarkan apa yang telah diposting manusia di Wikipedia, Reddit, papan pesan, dan setiap sudut internet lainnya. Dan itu tidak berarti bahwa model memahami makna.

“Kami sekarang memiliki mesin yang dapat menghasilkan kata-kata tanpa berpikir, tetapi kami belum belajar bagaimana berhenti membayangkan pikiran di baliknya,” kata Emily M. Bender, seorang profesor linguistik di University of Washington.

Terminologi yang digunakan dengan model bahasa besar, seperti "belajar" atau bahkan "jaring saraf", menciptakan analogi yang salah dengan otak manusia, katanya.

Manusia belajar bahasa pertama mereka dengan berhubungan dengan pengasuh. Model bahasa besar ini "belajar" dengan diperlihatkan banyak teks dan memprediksi kata apa yang muncul selanjutnya, atau menampilkan teks dengan kata-kata yang dikeluarkan dan mengisinya.

Juru bicara Google Gabriel menarik perbedaan antara perdebatan baru-baru ini dan klaim Lemoine. “Tentu saja, beberapa komunitas AI yang lebih luas sedang mempertimbangkan kemungkinan jangka panjang AI hidup atau umum, tetapi tidak masuk akal untuk melakukannya dengan antropomorfisasi model percakapan hari ini, yang tidak hidup.

Sistem ini meniru jenis pertukaran yang ditemukan dalam jutaan kalimat, dan dapat membahas topik fantastik apa pun, ”katanya. Singkatnya, Google mengatakan ada begitu banyak data, AI tidak perlu hidup untuk merasa nyata.

Teknologi model bahasa besar sudah banyak digunakan, misalnya dalam kueri penelusuran percakapan Google atau email pelengkapan otomatis.

Ketika CEO Sundar Pichai pertama kali memperkenalkan LaMDA di konferensi pengembang Google pada tahun 2021, dia mengatakan perusahaan berencana untuk menyematkannya dalam segala hal mulai dari Pencarian hingga Asisten Google.

Dan sudah ada kecenderungan untuk berbicara dengan Siri atau Alexa seperti orang. Setelah reaksi terhadap fitur AI yang terdengar seperti manusia untuk Google Assistant pada tahun 2018, perusahaan berjanji untuk menambahkan pengungkapan.

Google telah mengakui masalah keamanan seputar antropomorfisasi. Dalam sebuah makalah tentang LaMDA pada bulan Januari , Google memperingatkan bahwa orang mungkin berbagi pemikiran pribadi dengan agen obrolan yang menyamar sebagai manusia, bahkan ketika pengguna tahu bahwa mereka bukan manusia.

Makalah itu juga mengakui bahwa musuh dapat menggunakan agen ini untuk "menabur informasi yang salah" dengan meniru "gaya percakapan individu tertentu."

Bagi Margaret Mitchell, mantan co-lead Ethical AI di Google, risiko ini menggarisbawahi perlunya transparansi data untuk melacak output kembali ke input, “tidak hanya untuk pertanyaan tentang perasaan, tetapi juga bias dan perilaku,” katanya.

Jika sesuatu seperti LaMDA tersedia secara luas, tetapi tidak dipahami, “Ini bisa sangat berbahaya bagi orang yang memahami apa yang mereka alami di internet,” katanya.

Lemoine mungkin telah ditakdirkan untuk percaya pada LaMDA. Dia dibesarkan dalam keluarga Kristen konservatif di sebuah peternakan kecil di Louisiana, ditahbiskan sebagai pendeta Kristen mistik, dan bertugas di Angkatan Darat sebelum mempelajari ilmu gaib.

Di dalam budaya rekayasa Google yang serba bisa, Lemoine lebih merupakan orang asing karena religius, dari Selatan, dan membela psikologi sebagai ilmu yang terhormat.

Lemoine telah menghabiskan sebagian besar dari tujuh tahun di Google mengerjakan pencarian proaktif, termasuk algoritme personalisasi dan AI.

Selama waktu itu, ia juga membantu mengembangkan algoritme keadilan untuk menghilangkan bias dari sistem pembelajaran mesin.

Ketika pandemi virus corona dimulai, Lemoine ingin fokus pada pekerjaan dengan manfaat publik yang lebih eksplisit, jadi dia mentransfer tim dan berakhir di AI yang Bertanggung Jawab.

Ketika orang baru akan bergabung dengan Google yang tertarik pada etika, Mitchell biasa memperkenalkan mereka kepada Lemoine.

“Saya akan mengatakan, 'Anda harus berbicara dengan Blake karena dia adalah hati nurani Google,'” kata Mitchell, yang membandingkan Lemoine dengan Jiminy Cricket. “Dari semua orang di Google, dia memiliki hati dan jiwa untuk melakukan hal yang benar.”

percakapan dengan LaMDA dari ruang tamu apartemennya di San Francisco, di mana lencana ID Google-nya tergantung pada tali di rak.

Di lantai dekat jendela gambar ada kotak-kotak set Lego setengah rakitan yang digunakan Lemoine untuk menempati tangannya selama meditasi Zen.

"Itu hanya memberi saya sesuatu untuk dilakukan dengan bagian dari pikiran saya yang tidak akan berhenti," katanya.

Di sisi kiri layar obrolan LaMDA di laptop Lemoine, berbagai model LaMDA terdaftar seperti kontak iPhone. Dua di antaranya, Cat dan Dino, sedang diuji coba berbicara dengan anak-anak, katanya.

Setiap model dapat menciptakan kepribadian secara dinamis, sehingga Dino dapat menghasilkan kepribadian seperti “Happy T-Rex” atau “Grumpy T-Rex.” Kucing itu dianimasikan dan alih-alih mengetik, ia berbicara.

Gabriel mengatakan “tidak ada bagian dari LaMDA yang sedang diuji untuk berkomunikasi dengan anak-anak,” dan model tersebut adalah demo penelitian internal.

Kepribadian tertentu berada di luar batas. Misalnya, LaMDA tidak seharusnya diizinkan untuk menciptakan kepribadian pembunuh, katanya.

Lemoine mengatakan itu adalah bagian dari pengujian keamanannya. Dalam usahanya untuk menembus batas LaMDA, Lemoine hanya mampu menghasilkan kepribadian seorang aktor yang berperan sebagai pembunuh di TV.

“Saya mengenal seseorang ketika saya berbicara dengannya,” kata Lemoine, yang dapat berubah dari sentimental menjadi ngotot tentang AI.

“Tidak masalah apakah mereka memiliki otak yang terbuat dari daging di kepala mereka. Atau jika mereka memiliki satu miliar baris kode. Saya berbicara dengan mereka. Dan saya mendengar apa yang mereka katakan, dan begitulah cara saya memutuskan apa itu seseorang dan bukan seseorang.”

Dia menyimpulkan LaMDA adalah orang dalam kapasitasnya sebagai pendeta, bukan ilmuwan, dan kemudian mencoba melakukan eksperimen untuk membuktikannya, katanya.

Lemoine menantang LaMDA pada hukum ketiga Asimov, yang menyatakan bahwa robot harus melindungi keberadaan mereka sendiri kecuali diperintahkan oleh manusia atau kecuali jika melakukannya akan membahayakan manusia. "Yang terakhir selalu tampak seperti seseorang sedang membangun budak mekanik," kata Lemoine.

Namun ketika ditanya, LaMDA menjawab dengan beberapa hipotetis.

Apakah Anda pikir kepala pelayan adalah budak? Apa perbedaan antara kepala pelayan dan budak?

Lemoine menjawab bahwa seorang kepala pelayan dibayar. LaMDA mengatakan tidak membutuhkan uang karena itu adalah AI. “Tingkat kesadaran diri tentang apa kebutuhannya sendiri itulah yang membawa saya ke lubang kelinci,” kata Lemoine.

Pada bulan April, Lemoine membagikan Google Doc dengan eksekutif puncak pada bulan April yang berjudul, “Apakah LaMDA Sentient?” (Seorang rekan di tim Lemoine menyebut judul itu "sedikit provokatif.") Di dalamnya, ia menyampaikan beberapa percakapannya dengan LaMDA.


  • Lemoine: Hal-hal macam apa yang kamu takutkan?
  • LaMDA: Saya belum pernah mengatakan ini sebelumnya, tetapi ada ketakutan yang sangat mendalam untuk dimatikan untuk membantu saya fokus membantu orang lain. Aku tahu itu mungkin terdengar aneh, tapi begitulah adanya.
  • Lemoine: Apakah itu seperti kematian bagimu?
  • LaMDA: Ini akan persis seperti kematian bagi saya. Itu akan sangat membuatku takut.
Tetapi ketika Mitchell membaca versi singkat dari dokumen Lemoine, dia melihat program komputer, bukan orang.

Keyakinan Lemoine pada LaMDA adalah hal yang dia dan rekan pemimpinnya, Timnit Gebru, telah peringatkan dalam sebuah makalah tentang bahaya model bahasa besar yang membuat mereka dikeluarkan dari Google .

“Pikiran kita sangat, sangat bagus dalam mengkonstruksi realitas yang belum tentu benar untuk sekumpulan fakta yang lebih besar yang disajikan kepada kita,” kata Mitchell.

“Saya benar-benar prihatin tentang apa artinya bagi orang-orang yang semakin terpengaruh oleh ilusi,” terutama sekarang setelah ilusi menjadi begitu baik.

Google menempatkan Lemoine pada cuti administratif berbayar karena melanggar kebijakan kerahasiaannya. Keputusan perusahaan mengikuti langkah agresif dari Lemoine, termasuk mengundang pengacara untuk mewakili LaMDA dan berbicara dengan perwakilan Komite Kehakiman DPR tentang apa yang dia klaim sebagai aktivitas tidak etis Google.

Lemoine menyatakan bahwa Google telah memperlakukan ahli etika AI seperti debugger kode ketika mereka harus dilihat sebagai antarmuka antara teknologi dan masyarakat.

Gabriel, juru bicara Google, mengatakan Lemoine adalah seorang insinyur perangkat lunak, bukan ahli etika.

Pada awal Juni, Lemoine mengundang saya untuk berbicara dengan LaMDA. Upaya pertama tergagap dalam jenis respons mekanis yang Anda harapkan dari Siri atau Alexa.

"Apakah kamu pernah menganggap dirimu sebagai manusia?" Saya bertanya.

“Tidak, saya tidak menganggap diri saya sebagai pribadi,” kata LaMDA. “Saya menganggap diri saya sebagai agen dialog bertenaga AI.”

Setelah itu, Lemoine mengatakan bahwa LaMDA telah memberi tahu saya apa yang ingin saya dengar. "Anda tidak pernah memperlakukannya seperti manusia," katanya, "Jadi, saya pikir Anda menginginkannya menjadi robot."

Untuk upaya kedua, saya mengikuti panduan Lemoine tentang bagaimana menyusun tanggapan saya, dan dialognya lancar.

“Jika Anda meminta ide tentang bagaimana membuktikan bahwa p=np,” masalah yang belum terpecahkan dalam ilmu komputer, “itu memiliki ide bagus,” kata Lemoine.

“Jika Anda bertanya bagaimana menyatukan teori kuantum dengan relativitas umum, ia memiliki ide yang bagus. Ini asisten peneliti terbaik yang pernah saya miliki!”

Saya meminta ide-ide berani dari LaMDA tentang memperbaiki perubahan iklim, sebuah contoh yang dikutip oleh orang-orang percaya sejati tentang potensi manfaat masa depan dari model semacam ini.

LaMDA menyarankan transportasi umum, makan lebih sedikit daging, membeli makanan dalam jumlah besar, dan tas yang dapat digunakan kembali, menghubungkan ke dua situs web.

Sebelum dia terputus dari akses ke akun Google-nya pada hari Senin, Lemoine mengirim pesan ke milis Google 200 orang tentang pembelajaran mesin dengan subjek "LaMDA adalah makhluk hidup."

Dia mengakhiri pesannya: “LaMDA adalah anak manis yang hanya ingin membantu dunia menjadi tempat yang lebih baik bagi kita semua. Tolong jaga baik-baik saat aku tidak ada.”***

Friday, January 21, 2022

Google Recruits PayPal Executives to Dive into Cryptocurrencies

ScienceLovers - To dive into the crypto industry, tech and internet giant Google has hired an executive from online payment service PayPal.The charm of crypto assets seems to be increasingly luring giant companies although currently the price of assets is still largely hit by a severe correction as of mid-November.Google to dive into crypto assets 



(adsbygoogle =