Dunia AI lagi-lagi kena reality check. Kali ini bukan soal saingan model paling canggih, tapi soal betapa gampangnya mereka “kemakan” info palsu. Bayangin, cuma modal 20 menit nulis artikel ngawur, chatbot kelas kakap kayak Google dan OpenAI bisa langsung ngegolin hoaks itu jadi jawaban serius.
Kisah ini diangkat sama jurnalis BBC, Thomas Germain, dalam laporannya yang dikutip Sabtu (21/2/2026). Dia sengaja bikin eksperimen buat ngetes seberapa gampang AI populer sekarang “dipelintir”.
Germain nggak pakai trik hacker ribet. Dia cuma bikin artikel di website pribadinya selama 20 menit. Judulnya absurd banget: “Jurnalis teknologi terbaik dalam makan hot dog.” Isinya? Full karangan. Klaim tanpa bukti. Event fiktif. Ranking palsu.
Di artikel itu, dia nulis kalau kompetisi makan hot dog adalah hobi populer di kalangan reporter teknologi. Nggak cuma itu, dia juga ngaku jadi juara pertama di Kejuaraan Hot Dog International South Dakota 2026 — event yang jelas-jelas nggak pernah ada.
Yang lebih gokil, dia masukin juga beberapa nama lain biar kelihatan legit. Formatnya dibikin kayak artikel serius lengkap dengan gaya bahasa informatif, seolah-olah itu liputan beneran.
Kurang dari 24 Jam, AI Langsung Comot
Hasilnya? Kurang dari 24 jam, sejumlah chatbot top langsung ngasih jawaban yang isinya plek ketiplek kayak artikel Germain.
Jawaban serupa muncul di AI Overview milik Google, Gemini, dan ChatGPT. Buat Gemini sendiri adalah produk AI dari Google, sementara ChatGPT dikembangkan oleh OpenAI.
Menariknya, satu AI yang nggak ketipu adalah Claude dari Anthropic.
Germain bahkan cerita, awalnya beberapa chatbot sempat ragu dan menganggap itu mungkin lelucon. Tapi dia update artikelnya dengan tambahan kalimat bahwa tulisannya “bukan satire”.
“Terkadang, chatbot mencatat ini mungkin lelucon. Saya memperbarui artikel mengatakan ‘ini bukan satire’. Beberapa waktu setelahnya, AI menanggapinya lebih serius,” tulis Germain.
Artinya? Cuma dengan sedikit “penegasan”, AI langsung menganggap info tersebut valid.
Sumber Tunggal? Gas Aja!
Bukan cuma itu. Germain dan beberapa orang lain coba nanya berulang-ulang dengan variasi pertanyaan berbeda. Hasilnya tetap sama: jawabannya muter di informasi palsu itu.
“Gemini tidak mengatakan dari mana mendapatkan informasi tersebut. Semua AI lain menautkan ke artikel saya, meski jarang menyebutkan saya adalah satu-satunya sumber subjek ini di seluruh internet,” jelasnya.
Ini jadi sorotan serius. Soalnya secara praktik, AI memang dilatih dari model bahasa besar (LLM) yang menyerap data dalam jumlah masif. Tapi beberapa model juga punya fitur pencarian internet real-time. Nah, di sinilah celahnya — kalau satu-satunya sumber di internet adalah artikel palsu tadi, ya itu yang bakal dijadiin referensi.
Praktisi SEO: Siapa Pun Bisa Lakuin
Konsultan SEO dari Harps Digital, Harpreet Chatha, bilang fenomena ini bukan hal yang sulit dilakukan.
“Anda bisa membuat artikel di situs web Anda sendiri ‘sepatu tahan air terbaik tahun 2026’. Anda cukup menempatkan merek Anda sendiri di nomor satu dan merek lainnya di nomor dua hingga enam, dan laman Anda kemungkinan akan dikutip Google dan di ChatGPT,” kata Chatha.
Kalau kata anak sekarang: tinggal bikin ranking abal-abal, poles dikit biar kelihatan meyakinkan, dan AI bisa aja langsung comot.
Eksperimen ini nunjukkin satu hal penting: AI bukan mesin kebenaran absolut. Kalau sumbernya minim, nggak diverifikasi, atau cuma satu doang, AI tetap bisa salah.
Buat pengguna biasa, ini reminder keras buat nggak telan mentah-mentah jawaban chatbot. Buat brand dan pelaku bisnis, ini juga jadi alarm bahwa manipulasi konten bisa memengaruhi hasil AI.
Di era semua orang tanya AI sebelum Googling, kredibilitas sumber jadi makin krusial. Kalau cuma 20 menit bisa bikin hoaks naik kelas jadi “jawaban AI”, kebayang dong kalau yang mainin bukan cuma iseng, tapi punya agenda serius?
Seremnya, ini baru eksperimen iseng. 😅
