OpenAI Mencari ‘Ketua Kesediaan’ Bagi Mengesan Impak Negatif Penggunaan AI
Effi Saharudin
Sudah terhantuk baru terngadah ialah situasi yang dihadapi pembangun sistem kecerdasan buatan (AI) tahun ini. Model AI terbukti menyebabkan pengguna semakin malas, aktiviti otak berkurangan dan dalam situasi lebih serius menyebabkan pengguna menghadapi masalah kesihatan mental sehingga membunuh diri.

OpenAI kini berhadapan dengan kes saman selepas pengguna membunuh diri kerana menggunakan ChatGPT. Bagi mengesan impak negatif yang mungkin berlaku, OpenAI kini sedang mencari “Ketua Kesediaan” (Head of Preparedness) berpangkalan di San Francisco.
Tugas yang perlu digalas Ketua Kesediaan ialah melakukan mitigasi merentasi risiko utama seperti ruang siber, dan senjata biologi kerana model AI yang dibangunkan mungkin digunakan untuk tujuan serangan pengganas dan penggodam. Mereka juga perlu memperhalusi dan membangunkan rangka kerja apabila risiko, kemampuan dan jangkaan luar baharu muncul.
Dengan kata lain tugas utama ialah mengenalpasti risiko-risiko yang mungkin wujud disebabkan model yang dihasilkan syarikat sebelum di tawarkan kepada pengguna. Ini akan memastikan insiden negatif yang menyebabkan syarikat perlu menanggung liabiliti boleh dielakkan sebelum berlaku.






