Microsoft Stop ‘Teman Virtual’ Gara-gara Ocehannya Rasial
Microsoft baru saja meluncurkan artificial intelligence (AI) khusus untuk remaja.
Editor: Fajar Anjungroso
TRIBUNNEWS.COM – Microsoft baru saja meluncurkan artificial intelligence (AI) khusus untuk remaja.
Dinamai "Tay", AI tersebut diharapkan bisa menjadi teman berkomunikasi yang baik bagi generasi muda atau kerap disebut "millennial".
Sayangnya, Tay malah meracau. Ia mengicaukan beberapa kalimat rasial di Twitter.
Namun, beberapa kicauan itu telah dihapus saat ini.
Hal tersebut memicu kontroversi di kalangan netizen.
Vice President of Microsoft Research Peter Lee pun meminta maaf.
"Kami minta maaf sedalam-dalamnya atas kicauan ofensif yang tak sengaja dilontarkan Tay," kata dia, sebagaimana dilaporkan Mashable.
Meski meminta maaf, Lee tak mengakui insiden itu semata-mata kesalahan Microsoft.
Menurut dia, sebelum diluncurkan, Tay sudah dites berkali-kali agar hal-hal yang tak diinginkan terjadi.
Ia pun berdalih kicauan rasial Tay adalah hasil manipulasi oknum-oknum tak bertanggung jawab.
"Ada pihak-pihak yang mengeksploitasi kelemahan Tay saat 24 jam pertama dirilis," ia menuturkan.
Untuk sementara, Tay akan dinonaktifkan hingga waktu yang belum dipastikan.
Pada dasarnya, Tay mirip dengan asisten digital semisal "Siri" dan "Cortana".
Bedanya, Tay lebih spesifik menyasar remaja. Ia dibuat dengan pola pikir remaja, gaya bicara remaja, dan segalanya berbau remaja.
Pekan lalu, Tay diluncurkan sebagai eksperimen awal untuk mempelajari gimik generasi muda.
Ia dirilis di Kik, GroupMe, dan Twitter.
Sekali berkoneksi dengan Tay di aplikasi-aplikasi tersebut, Anda bisa bertukar pesar penuh guyonan, membidik selfie, dan bermain game.