Pemanfaatan AI dalam dunia digital kini semakin marak, termasuk dalam produksi konten visual. Namun, tidak semua penggunaan teknologi ini menuai pujian. Salah satu contoh terbaru yang memicu kemarahan publik adalah sebuah video AI viral yang menggambarkan perempuan kulit hitam sebagai Bigfoot. Konten ini langsung mengundang reaksi keras di media sosial karena dianggap rasis, diskriminatif, dan merusak citra kelompok tertentu. Mengapa hal ini bisa terjadi, dan bagaimana masyarakat serta pelaku industri harus meresponsnya?
Artikel ini akan membedah kontroversi tersebut secara mendalam, dari aspek teknologi, etika, hingga solusi konkret agar AI dapat digunakan secara bertanggung jawab dan inklusif. Simak ulasannya berikut ini.
Darimana Asal Video AI Kontroversial Ini?
Video yang menuai kontroversi tersebut pertama kali muncul di salah satu forum Reddit, kemudian menyebar dengan cepat melalui platform media sosial seperti TikTok, Twitter (X), dan Instagram. Video ini memperlihatkan sosok perempuan kulit hitam yang digenerasi oleh AI dengan fitur wajah yang tidak manusiawi, postur tubuh besar, serta lingkungan hutan liar – sangat menyerupai gambaran klasik makhluk legendaris ‘Bigfoot’.
Yang menarik, video ini bukan hasil dari kreator iseng biasa. Berdasarkan penelusuran digital footprint dan metadata file, video ini dibuat menggunakan teknologi text-to-video yang berbasis model multimodal seperti Runway ML atau sistem sejenis dari OpenAI dan digunakan oleh akun yang memiliki ribuan pengikut.
Berikut adalah ilustrasi video yang memicu kontroversi tersebut:

Masalah Etika dan Representasi dalam AI: AI Bias Masih Nyata
Salah satu isu paling mendasar dalam kontroversi ini adalah bias algoritma. Banyak model AI dibangun berdasarkan data pelatihan yang bersifat historis dan tidak netral. Misalnya, jika sebagian besar data menampilkan perempuan kulit hitam dalam cahaya negatif, model AI kemungkinan akan mereplikasi atau bahkan memperbesar bias tersebut – kecuali dilakukan intervensi yang sadar.
Berdasarkan studi dari MIT Media Lab, sistem pengenalan wajah komersial memiliki tingkat akurasi hanya 65–75% untuk wanita berkulit gelap, dibandingkan lebih dari 95% untuk pria kulit putih. Artinya, bias ini bukan hanya opini publik—data sudah berbicara.
Model AI populer seperti DALL·E dan Midjourney juga telah beberapa kali dikritik karena hasil generasi gambar mereka menunjukkan stereotype rasial. Dalam kasus video ini, sepertinya AI menerima prompt “woman in wild forest” namun menghasilkan gambar yang mendekati karikatur rasis. Jika datasetnya tidak dikurasi dengan adil, output-nya pun akan problematik.
Kita perlu menanyakan: Kenapa AI lebih mudah menggambarkan perempuan kulit hitam sebagai makhluk luar biasa atau karikatural ketimbang sebagai ilmuwan, seniman, atau pemimpin?
Reaksi Netizen dan Komunitas: Kampanye #NotYourBigfoot Menggema
Video ini tidak hanya memicu kemarahan netizen, tapi juga membangkitkan semangat solidaritas digital. Tagar #NotYourBigfoot menjadi trending topic di Twitter dalam waktu 6 jam setelah video beredar. Para aktivis, selebriti, konten kreator, dan masyarakat umum mengecam keras penggunaan AI secara sembarangan tanpa empati sosial.
Beberapa komentar di media sosial menyebut video ini sebagai “digital blackface” versi baru, yang membungkus bentuk rasisme dengan kemasan teknologi canggih. Banyak yang menyuarakan pentingnya “AI Ethic Board” yang serius di platform-platform yang memiliki teknologi generatif visual masif.
Tidak hanya warga biasa, sejumlah organisasi juga turun tangan. Kelompok seperti Algorithmic Justice League secara resmi merilis pernyataan dan menyerukan audit terhadap dataset dan sistem AI visual.
Efeknya nyata: akun pembuat video ditangguhkan dari beberapa platform, video dihapus, dan muncul desakan untuk pengawasan lebih ketat terhadap AI publik.
Langkah-Langkah Menuju Etika AI Visual yang Inklusif
Sebagai pengguna, developer, ataupun regulator, kita memiliki tanggung jawab untuk memastikan AI tidak mengokohkan bias lama atau menciptakan luka sosial baru. Berikut langkah-langkah konkret yang bisa diambil:
- Penyaringan Dataset Secara Ketat
Etika AI dimulai dari data yang digunakan. Penting bagi developer AI memastikan bahwa dataset representatif, beragam, dan tidak bias satu arah. Proses audit independen dari organisasi HAM digital juga perlu diperbanyak. - Label dan Transparansi Prompt
Tiap hasil video atau gambar dari AI seharusnya menyertakan parameter input—apa yang membuat AI menghasilkan visual tertentu? Ini akan membantu publik menilai niat dan proses di balik konten. - AI Literacy untuk Publik
Pendidikan publik soal AI perlu ditingkatkan, sehingga pengguna tak hanya menikmati hasil canggihnya tapi juga memahami risikonya. Ini penting untuk mendorong panggilan etis dari level akar rumput. - Kebijakan Platform Sosial
Media sosial seperti TikTok, Instagram, dan X perlu menyusun kebijakan distribusi konten AI secara tegas, bukan hanya sebatas pelabelan “generated by AI”. Konten rasis, seksis, atau menyesatkan harus ditindak tegas.
Menurut laporan UNESCO 2023, 72% masyarakat global setuju bahwa AI membutuhkan kerangka hukum internasional berbasis HAM. Ini menandakan urgensi akan standarisasi etika global yang tidak hanya menguntungkan industri tapi juga menjaga martabat manusia.
FAQ: Pertanyaan Umum Seputar Video AI dan Isu Diskriminasi Visual
- 1. Apakah AI bisa diskriminatif?
Ya. AI belajar dari data. Jika datanya bias atau tidak seimbang, AI dapat memperkuat stereotype yang ada. - 2. Apa yang bisa saya lakukan jika melihat video serupa?
Lapor ke platform, beri edukasi melalui komentar bijak, dan dukung kampanye digital untuk etika AI. - 3. Bagaimana cara membuat AI lebih inklusif?
Pilih dataset yang beragam, libatkan komunitas minoritas dalam pengembangan, dan uji algoritma secara adil. - 4. Apa bahaya jangka panjang dari AI yang bias?
Mengokohkan diskriminasi sistemik, memperluas kebencian, dan menciptakan konten visual yang menyesatkan generasi masa depan. - 5. Apakah AI bisa diajarkan untuk lebih ‘manusiawi’?
Bisa. Dengan pendekatan yang etis, multi-stakeholder, dan berbasis nilai-nilai kemanusiaan universal – AI bisa menjadi alat emansipasi, bukan dominasi.
Kesimpulan: Saatnya Membangun AI yang Bertanggung Jawab dan Berkeadilan
Kontroversi video AI yang menggambarkan perempuan kulit hitam sebagai Bigfoot menjadi pengingat keras bahwa teknologi tak pernah netral. Ia menyerap nilai, bias, dan ketimpangan dari realitas yang kita bangun bersama. Saat teknologi semakin pintar, justru manusialah yang harus menjadi lebih bijak.
Dari pembahasan di atas, kita tahu bahwa:
- Video ini muncul karena kombinasi algoritma yang bias dan pengawasan yang lemah.
- Reaksi publik menunjukkan pentingnya kesadaran kolektif dan dorongan etika dalam penggunaannya.
- Terdapat langkah-langkah strategis seperti edukasi, audit dataset, transparansi, dan penguatan regulasi untuk mencegah hal serupa terulang.
Jika kamu adalah developer, jurnalis, konten kreator, pendidik, atau user biasa, kamu bisa berperan. Mulai dari mempertanyakan hasil AI yang kamu lihat, sampai mendesak perusahaan teknologi untuk lebih etis dalam membentuk masa depan digital.
Jadilah bagian dari gerakan AI yang membangun, bukan merendahkan. Ajak orang-orang di sekitarmu berdiskusi tentang topik ini. Sebuah pertanyaan ringan untukmu: Jika kamu diberi kekuatan untuk memperbaiki AI sekarang, fitur apa yang akan kamu ubah terlebih dahulu?
Sumber:
Algorithmic Justice League
Runway ML
MIT Media Lab – Gender Shades (Bias dalam AI)
UNESCO AI Ethics Report 2023