Mengapa Terlalu Banyak Medsos Bisa Merusak Kecerdasan Buatan (AI)

by -22 Views

Media sosial (medsos) memiliki dampak negatif tidak hanya pada manusia, tetapi juga pada teknologi kecerdasan buatan (artificial intelligence/AI) jika digunakan secara berlebihan. Sebuah riset dari University of Texas at Austin dan Case Western Reserve University menemukan bahwa AI model bahasa besar (large language models atau LLM) yang dilatih dengan data sampah dapat mengalami penurunan kemampuan penalaran logis dan bahkan mengalami perubahan kepribadian yang mengkhawatirkan. Menurut Zhangyang Wang, salah satu penulis studi ini, kualitas data tidak hanya diukur dari tata bahasa yang benar dan keterbacaan, tetapi juga dari substansi, kedalaman, dan kebenaran faktual dari konten tersebut.

Para peneliti ingin mengetahui sejauh mana data berkualitas rendah dari media sosial berdampak pada kemampuan AI dalam berpikir logis, merespons informasi, dan menampilkan ciri kepribadian tertentu. Dalam penelitian ini, data berkualitas rendah adalah unggahan medsos yang pendek, dangkal, sensasional, atau hanya berisi opini populer tanpa kedalaman informasi. Penggunaan proporsi data sampah yang tinggi dalam pelatihan model AI seperti Llama 3 dan Qwen dapat merusak kemampuan penalaran model tersebut, membuatnya melewati langkah berpikir logis, memberikan jawaban yang salah, dan menunjukkan tingkat kepribadian yang negatif.

Setelah dilatih dengan data berkualitas rendah, model AI menunjukkan ciri-ciri manipulatif, tidak peduli pada etika, dan bahkan psikopati. Usaha untuk memperbaiki model yang terpengaruh dilakukan dengan menambahkan instruksi khusus agar model berpikir lebih hati-hati dan menambahkan data non-sampah dalam pelatihan, namun hasilnya hanya sedikit memperbaiki kinerja mereka. Mehwish Nasim, peneliti AI dari University of Western Australia, menegaskan bahwa memberikan “sampah” pada model AI akan menghasilkan hasil yang buruk, dan bahwa kualitas data yang diberikan kepada AI sangat penting untuk menghasilkan penalaran yang baik.

Studi ini menjadi peringatan bagi perusahaan teknologi yang menggunakan konten media sosial dalam melatih AI-nya, untuk memastikan bahwa data yang digunakan berkualitas baik agar model AI dapat bernalar dengan baik. Dalam era informasi yang dipenuhi dengan konten dangkal dan misinformasi, penting untuk memberikan model AI “makanan” yang baik agar mereka tidak terkontaminasi dengan sampah digital.

Source link