Peringatan Bos OpenAI: Jangan Terlalu Percaya Jawaban ChatGPT

CEO OpenAI Sam Altman mengingatkan pengguna untuk tidak sepenuhnya percaya pada jawaban yang diberikan oleh chatbot kecerdasan buatan (artificial intelligence/AI) butan perusahaannya itu, ChatGPT. Pasalnya, meskipun ChatGPT terlihat cerdas dan sering membantu, nyatanya teknologi ini masih sering salah dan bisa membuat jawaban yang sebenarnya keliru, tapi terdengar meyakinkan.

Dalam dunia artificial intelligence, istilah “hallucination” bukan berarti AI benar-benar berkhayal seperti manusia, tapi merujuk pada kecenderungan model AI seperti ChatGPT menghasilkan informasi yang salah, meski disampaikan dengan bahasa yang terdengar meyakinkan. Altman menyarankan agar pengguna selalu memverifikasi informasi yang diberikan oleh ChatGPT, terutama jika digunakan untuk hal penting seperti pendidikan, pekerjaan, riset, kesehatan, atau keuangan.

Altman menjelaskan bahwa ChatGPT bekerja dengan memprediksi kata berikutnya dalam sebuah kalimat, berdasarkan pola bahasa dari data yang digunakan saat pelatihan. Artinya, chatbot ini tidak benar-benar “mengerti” topik yang sedang dibahas, melainkan hanya meniru pola bahasa yang sering muncul di internet, buku, dan dokumen lainnya. Maka dari itu, kata Altman, ChatGPT sebaiknya dipakai seperti kita menggunakan alat bantu lainnya (seperti kalkulator atau kamus), bukan sebagai satu-satunya sumber kebenaran.

Search