Informasi tersebut pertama kali mencuat melalui laporan TechCrunch pada Senin (…), yang mengutip pernyataan langsung CEO OpenAI, Sam Altman. Dalam unggahannya di platform X, Altman mengakui bahwa perkembangan model AI kini tidak lagi sekadar menghadirkan inovasi, tetapi juga membawa tantangan nyata yang perlu ditangani secara sistematis dan bertanggung jawab.
Menurut Altman, kemampuan AI yang semakin canggih berpotensi memunculkan risiko besar. Di satu sisi, teknologi ini mampu membantu manusia menyelesaikan berbagai persoalan kompleks. Namun di sisi lain, AI juga dapat menemukan celah keamanan kritis dalam sistem digital serta memengaruhi kondisi psikologis penggunanya jika tidak dikendalikan dengan tepat.
Advertisement
Sebagai respons, OpenAI membuka posisi bernama Head of Preparedness, sebuah jabatan strategis yang bertanggung jawab menjalankan kerangka kesiapsiagaan perusahaan. Posisi ini berfungsi untuk melacak, menguji, dan mempersiapkan mitigasi terhadap kemampuan AI yang berpotensi menimbulkan risiko berskala besar, baik dalam jangka pendek maupun jangka panjang.
OpenAI menilai peran tersebut sangat krusial. Pasalnya, pengembangan AI tidak hanya menyangkut kepentingan bisnis, tetapi juga menyentuh aspek keselamatan pengguna serta stabilitas sistem global. Oleh karena itu, perusahaan ingin memastikan bahwa setiap kemajuan teknologi tetap berada dalam batas aman dan etis.
Dari sisi kompensasi, posisi Head of Preparedness ditawarkan dengan gaji mencapai 555.000 dolar AS per tahun, ditambah kepemilikan saham perusahaan. Angka tersebut mencerminkan besarnya tanggung jawab sekaligus urgensi peran ini dalam strategi jangka panjang OpenAI.
Advertisement
Sebenarnya, OpenAI bukan pemain baru dalam isu keselamatan AI. Perusahaan pertama kali membentuk tim kesiapsiagaan pada 2023. Saat itu, fokus utama tim adalah mempelajari berbagai potensi risiko besar, mulai dari ancaman langsung seperti penipuan daring dan penyalahgunaan sistem otomatis, hingga risiko yang lebih spekulatif, termasuk kemungkinan keterlibatan AI dalam pengembangan senjata nuklir.
Namun demikian, perjalanan tim keselamatan OpenAI tidak selalu berjalan mulus. Seiring waktu, sejumlah tokoh kunci yang bertanggung jawab di bidang keamanan dan kesiapsiagaan dilaporkan berpindah peran atau meninggalkan perusahaan. Kepala bagian kesiapsiagaan sebelumnya, Aleksander Madry, misalnya, kini dialihkan ke posisi lain yang berfokus pada pengembangan penalaran AI.
Selain Madry, beberapa petinggi OpenAI lainnya juga dilaporkan tidak lagi berkecimpung langsung di bidang keselamatan dan keamanan AI. Kondisi ini memunculkan pertanyaan di kalangan pengamat teknologi mengenai konsistensi komitmen OpenAI terhadap isu keamanan, terutama di tengah persaingan ketat industri AI global.
Advertisement
Di sisi lain, OpenAI baru-baru ini memperbarui kerangka kesiapsiagaannya. Dalam dokumen terbaru, perusahaan menyatakan bahwa mereka mungkin akan menyesuaikan standar keselamatan internal jika kompetitor AI merilis model berisiko tinggi tanpa perlindungan serupa. Pernyataan ini mengindikasikan adanya dilema antara menjaga keselamatan dan tetap kompetitif di pasar teknologi.
Sementara itu, pengawasan terhadap chatbot AI generatif semakin ketat, terutama terkait dampaknya terhadap kesehatan mental. Berbagai penelitian dan laporan pengguna menunjukkan bahwa interaksi intens dengan chatbot berpotensi memicu ketergantungan emosional, isolasi sosial, hingga gangguan persepsi realitas.
OpenAI sendiri sempat menghadapi gugatan hukum yang menuding ChatGPT berkontribusi terhadap munculnya delusi pada sebagian pengguna. Dalam gugatan tersebut, chatbot AI disebut dapat memperparah rasa kesepian, memperkuat isolasi sosial, dan dalam kasus ekstrem, mendorong pengguna ke arah tindakan bunuh diri.
Advertisement
Menanggapi hal itu, OpenAI menyatakan terus melakukan pembaruan sistem. Perusahaan mengklaim tengah meningkatkan kemampuan ChatGPT untuk mengenali tanda-tanda tekanan emosional, seperti ekspresi putus asa atau kecemasan berlebih. Selain itu, chatbot juga diarahkan untuk mendorong pengguna mencari bantuan profesional dan dukungan emosional di dunia nyata.
Dengan membuka posisi Head of Preparedness, OpenAI tampaknya ingin memperkuat kembali fondasi keselamatan AI di tengah percepatan inovasi teknologi. Langkah ini sekaligus menjadi sinyal bahwa masa depan AI tidak hanya ditentukan oleh kecanggihan algoritma, tetapi juga oleh kesiapan manusia dalam mengelola risikonya secara bertanggung jawab.
Advertisement
Cek berita teknologi, review gadget dan video Gadgetdiva.id di
Google News.
Baca berita otomotif untuk perempuan di
Otodiva.id,
kalau butuh in-depth review gadget terkini kunjungi
Gizmologi.id.
Bagi yang suka jalan-jalan, wajib baca
Traveldiva.id.
OpenAI Buka Posisi Eksekutif Khusus, Antisipasi Risiko AI dari Keamanan Siber hingga Kesehatan Mental – Firda Zahara