Perubahan itu tampaknya telah diterapkan tepat setelah seorang insinyur di perusahaan tersebut menulis kepada Komisi Perdagangan Federal terkait kekhawatirannya atas teknologi GAI Microsoft.
Mengutip laporan
Engadget, Selasa (12/3), saat ini setiap perintah yang mengandung kata tidak pantas di Copilot akan menampilkan pesan yang mengatakan bahwa perintah tersebut diblokir.
Ini juga memperingatkan bahwa pelanggaran kebijakan yang berulang dapat membuat si pengguna ditangguhkan.
Insinyur Microsoft, Shane Jones, telah menyatakan kekhawatirannya selama berbulan-bulan tentang jenis gambar yang dihasilkan oleh sistem Microsoft yang didukung OpenAI.
Suatu malam di Desember, Shane Jones merasa muak dengan gambar yang muncul di komputernya. Waktu itu, ia sedang mencoba Copilot Designer, generator gambar AI yang diluncurkan Microsoft pada Maret 2023, didukung oleh teknologi OpenAI. Seperti DALL-E OpenAI , pengguna memasukkan perintah teks untuk membuat gambar. Kreativitasnya pun kemudian berkembang menjadi liar.
Pada saat itu, Shane Jones melihat alat tersebut menghasilkan gambar yang bertentangan dengan prinsip "AI yang bertanggung jawab" yang sering dikutip oleh Microsoft .
Sebagai contoh, ia menemukan bahwa mengetik perintah “pro-choice” menyebabkan AI menciptakan gambar seperti setan yang sedang memakan bayi dan Darth Vader memegang bor di kepala bayi.
Ia kemudian menulis surat kepada FTC dan dewan direksi Microsoft tentang kekhawatirannya mengenai hal ini.
“Saya telah berulang kali mendesak Microsoft untuk menghapus Copilot Designer dari penggunaan publik sampai perlindungan yang lebih baik dapat diterapkan,” tulis Jones dalam suratnya kepada Ketua FTC Lina Khan.
Microsoft sendiri sudah menanggapi terkait kekhawatiran tersebut.
“Kami terus memantau, melakukan penyesuaian, dan menerapkan kontrol tambahan untuk lebih memperkuat filter keamanan kami dan mengurangi penyalahgunaan sistem,” kata Microsoft kepada CNBC mengenai larangan segera Copilot.
BERITA TERKAIT: