Dicky Efendi Halo! Saya Dicky Efendi, founder dari Adopta Hunter. Saya lulusan dari "Pesantren Sintesa" angkatan 9 tahun 2019/2020. Follow ig @dkyefendi

Chatbot AI baru dapat melakukan pekerjaan rumah untuk Anda. Tapi itu masih bukan siswa A+

Dia telah menggunakannya sebagai asisten gurunya sendiri untuk membantu membuat kurikulum, kuliah, penugasan dan rubrik penilaian untuk mahasiswa MBA.

“Anda dapat memasukkan seluruh makalah akademik dan meminta mereka untuk meringkas. Anda dapat memintanya untuk menemukan bug dalam kode Anda dan memperbaikinya dan memberi tahu Anda mengapa Anda salah,” katanya. “Pengganda keterampilan itulah yang menurut saya tidak begitu kita pahami, itu benar-benar menakjubkan,” katanya.

Bot yang menarik – tetapi tidak dapat dipercaya –

Tetapi asisten virtual manusia super – seperti teknologi AI yang baru muncul – memiliki keterbatasan. Lagipula, ChatGPT diciptakan oleh manusia. OpenAI melatih alat tersebut pada kumpulan data besar percakapan manusia nyata.

“Cara terbaik untuk memikirkannya adalah Anda mengobrol dengan pekerja magang yang serba tahu dan bersemangat yang terkadang berbohong kepada Anda,” kata Mollick.

Ini juga tentang kepercayaan. Terlepas dari nadanya yang berwibawa, ada beberapa contoh di mana ChatGPT tidak memberi tahu Anda jika tidak ada jawaban.

Teresa Kubacka, seorang ilmuwan data dari Zurich, Swiss, menemukan hal ini saat bereksperimen dengan model bahasa. Kubacka, yang meraih gelar Ph.D. Mempelajari fisika, dia menguji alat tersebut dengan menanyakan tentang fenomena fisik yang ditemukan.

“Saya sengaja menanyakan tentang sesuatu yang menurut saya tidak ada, sehingga mereka bisa menilai apakah sebenarnya juga ada ide tentang apa yang ada dan apa yang tidak ada,” ujarnya.

ChatGPT memberikan tanggapan yang terdengar sangat spesifik dan masuk akal, didukung dengan kutipan yang katanya perlu dia selidiki jika fenomena palsu, “elektromagnon terbalik sikloidal”, sebenarnya nyata.

Setelah diperiksa lebih dekat, materi sumber yang diduga juga palsu, katanya. Nama-nama ahli fisika terkenal terdaftar, tetapi judul publikasi yang diklaim mereka tulis tidak tersedia, katanya.

“Di sinilah bahayanya,” kata Kubacka. “Saat Anda tidak bisa mempercayai referensi, itu juga merusak kepercayaan dalam mengutip sains,” katanya.

Ilmuwan menyebut generasi palsu ini “halusinasi”.

“Masih banyak contoh di mana Anda mengajukan pertanyaan kepadanya dan Anda mendapatkan jawaban yang terdengar sangat mengesankan yang salah,” kata Oren Etzioni, CEO pendiri Institut Allen untuk AI, yang hingga saat ini mengepalai organisasi penelitian nirlaba. “Dan tentu saja itu menjadi masalah jika Anda tidak memeriksa atau mengkonfirmasi fakta dengan hati-hati.”

Kesempatan untuk memeriksa alat bahasa AI

Pengguna yang bereksperimen dengan pratinjau gratis chatbot diperingatkan sebelum mencoba alat bahwa ChatGPT “terkadang dapat menghasilkan informasi yang salah atau menyesatkan, instruksi berbahaya, atau konten yang bias.”

CEO OpenAI Sam Altman mengatakan awal bulan ini akan menjadi kesalahan untuk mengandalkan alat untuk apa pun yang “penting” dalam iterasi saat ini. “Ini pratinjau kemajuan”, dia men-tweet.

Cacat dalam model bahasa AI lain yang diluncurkan oleh Meta bulan lalu menyebabkan penutupannya. Perusahaan menarik demo untuk Galactica, alat yang dirancang untuk membantu para ilmuwan hanya tiga hari setelah mendorong publik untuk mencobanya setelah dikritik karena memuntahkan teks yang bias dan tidak masuk akal.

Demikian pula, Etzioni mengatakan bahwa ChatGPT tidak menghasilkan sains yang baik. Namun, terlepas dari segala kekurangannya, dia melihat debut publik ChatGPT sebagai sesuatu yang positif. Dia melihat ini sebagai momen untuk peer review.

“ChatGPT baru berumur beberapa hari, saya ingin mengatakannya,” kata Etzioni, yang tetap menjadi anggota dewan dan penasihat di institut AI. Itu “memberi kita kesempatan untuk memahami apa yang dia bisa dan tidak bisa lakukan, dan dengan serius memulai percakapan ‘Apa yang akan kita lakukan?’ untuk memulai. “

Alternatifnya, yang dia sebut “keamanan melalui ketidakjelasan,” tidak akan membantu meningkatkan AI yang bisa salah, katanya. “Bagaimana jika kita menyembunyikan masalahnya? Apakah ini akan menjadi resep untuk menyelesaikannya? Biasanya – bukan di dunia perangkat lunak – itu tidak berhasil.”

Hak Cipta 2022 NPR. Untuk melihat lebih lanjut, kunjungi https://www.npr.org.

Dicky Efendi Halo! Saya Dicky Efendi, founder dari Adopta Hunter. Saya lulusan dari "Pesantren Sintesa" angkatan 9 tahun 2019/2020. Follow ig @dkyefendi

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *