JAKARTA, koranmetro.com – Sebuah studi baru yang diterbitkan oleh para peneliti dari Universitas Stanford dan MIT mengungkap fakta mengkhawatirkan: mesin pencari berbasis kecerdasan buatan (AI) seperti yang dikembangkan oleh perusahaan teknologi besar sering kali mengambil informasi dari situs web berkualitas rendah. Temuan ini menyoroti risiko potensial terhadap akurasi dan keandalan informasi yang disajikan kepada pengguna sehari-hari.
Latar Belakang Penelitian
Studi berjudul “Evaluating Source Quality in AI-Driven Search Engines” ini melibatkan analisis terhadap lebih dari 10.000 hasil pencarian dari tiga mesin pencari AI populer, termasuk varian dari Google Gemini, Microsoft Bing AI, dan Perplexity AI. Peneliti menggunakan metrik kualitas sumber yang mapan, seperti PageRank, Domain Authority (dari Moz), serta penilaian manual oleh ahli untuk mengukur kredibilitas situs.
Hasilnya menunjukkan bahwa rata-rata 42% sumber yang dikutip oleh AI berasal dari situs dengan skor kualitas di bawah 50/100. Situs-situs ini sering kali termasuk blog pribadi, forum diskusi, atau halaman konten yang dihasilkan secara massal (content farms) dengan sedikit verifikasi fakta.
Temuan Utama
- Frekuensi Pengambilan dari Sumber Rendah: Dalam pencarian tentang topik kesehatan, seperti “pengobatan alami untuk flu”, hingga 58% jawaban AI mengandalkan artikel dari situs non-medis yang tidak didukung oleh referensi ilmiah. Contohnya, sebuah situs afiliasi marketing sering muncul sebagai sumber utama, meskipun isinya penuh iklan dan klaim tidak berdasar.
- Dampak pada Topik Sensitif: Untuk isu politik dan berita terkini, AI cenderung mengutip media partisan atau situs clickbait. Studi menemukan bahwa 35% kutipan berasal dari domain yang diklasifikasikan sebagai “low-trust” oleh organisasi seperti NewsGuard.
- Perbandingan dengan Mesin Pencari Tradisional: Berbeda dengan Google Search klasik yang lebih mengutamakan situs otoritatif (seperti Wikipedia atau jurnal akademik), AI search engine tampaknya memprioritaskan kecepatan dan relevansi kata kunci, sehingga mengabaikan kualitas.
Peneliti menyimpulkan bahwa algoritma AI saat ini terlalu bergantung pada model bahasa besar (LLM) yang dilatih pada data web secara keseluruhan, tanpa filter kualitas yang ketat. “AI tidak ‘membaca’ seperti manusia; ia mencocokkan pola, dan pola dari konten rendah sering kali lebih melimpah di internet,” kata Dr. Elena Ramirez, penulis utama studi tersebut.
Implikasi bagi Pengguna
Temuan ini menimbulkan kekhawatiran tentang penyebaran misinformasi. Pengguna yang mengandalkan AI untuk jawaban cepat mungkin mendapatkan informasi yang bias atau salah, terutama di bidang pendidikan, kesehatan, dan keuangan. Sebuah survei pendamping dalam studi menunjukkan bahwa 68% responden percaya sepenuhnya pada hasil AI tanpa memverifikasi sumber.
Perusahaan teknologi merespons dengan janji perbaikan. Seorang juru bicara dari salah satu platform AI menyatakan, “Kami terus meningkatkan model untuk memprioritaskan sumber tepercaya melalui pembaruan algoritma.”
Rekomendasi untuk Masa Depan
Para peneliti merekomendasikan:
- Integrasi tools verifikasi sumber seperti FactCheck.org secara langsung ke dalam AI.
- Transparansi lebih besar: AI harus menampilkan skor kualitas sumber di samping jawaban.
- Pendidikan pengguna: Dorong kebiasaan cross-checking dengan multiple sources.
Studi ini menjadi pengingat bahwa meskipun AI merevolusi pencarian informasi, kualitas tetap menjadi tantangan utama. Di era digital yang semakin cepat, bijaklah dalam menerima jawaban instan—selalu tanyakan: “Dari mana sumbernya?”









