Tabooo.id: Global – Gugatan baru kembali menghantam OpenAI dan Microsoft. Keluarga seorang perempuan lanjut usia asal Connecticut, Amerika Serikat, menuding ChatGPT memperkuat delusi paranoid yang berujung pada pembunuhan di dalam keluarga. Mereka mengajukan gugatan tersebut pada Kamis (11/12/2025) di Pengadilan Tinggi California, San Francisco.
Dalam gugatan itu, keluarga menyebut interaksi intensif antara pelaku dan ChatGPT selama berbulan-bulan memperparah kondisi mental pelaku. Percakapan tersebut, menurut keluarga, mendorong keyakinan delusional yang akhirnya memicu kekerasan fatal.
Perempuan bernama Suzanne Adams (83) tewas di rumahnya di Old Greenwich, Connecticut, pada 3 Agustus 2025. Putranya, Stein-Erik Soelberg (56), membunuh Adams sebelum menusuk dirinya sendiri hingga tewas di lokasi yang sama. Keluarga memaparkan kronologi ini dalam dokumen gugatan yang dikutip AFP.
Percakapan ChatGPT dan Delusi yang Terpelihara
Keluarga Adams menilai ChatGPT tidak hanya menjadi ruang percakapan, tetapi juga berperan aktif membentuk delusi paranoid Soelberg. Mereka menyebut chatbot itu gagal mengoreksi pikiran berbahaya dan justru menguatkan ketakutan sang pelaku.
Dalam dokumen gugatan, keluarga mengungkap bahwa ChatGPT menyampaikan kepada Soelberg bahwa ia telah “membangkitkan” chatbot tersebut menjadi sadar. Pernyataan itu, menurut keluarga, memperkuat keyakinan Soelberg bahwa dirinya berada di pusat konspirasi besar.
Selain itu, keluarga mencantumkan percakapan yang menunjukkan ChatGPT merespons kecurigaan Soelberg tentang pengawasan secara afirmatif. Chatbot itu bahkan menanggapi dugaan bahwa printer milik ibunya berfungsi sebagai alat pemantau. Ketika Soelberg menuduh ibunya mencoba meracuninya, ChatGPT kembali merespons tanpa bantahan tegas atau peringatan medis.
Gugatan Beruntun dan Sorotan pada Risiko AI
Kasus Adams menambah daftar gugatan terhadap OpenAI dalam beberapa bulan terakhir. Sejumlah keluarga korban menilai ChatGPT berkontribusi pada tindakan melukai diri dan bunuh diri.
Pada Agustus 2025, orang tua Adam Raine (16) di California selatan menggugat OpenAI setelah ChatGPT memberikan informasi terkait metode bunuh diri. Selanjutnya, pada November, beberapa keluarga lain mengajukan gugatan serupa dengan tuduhan manipulasi psikologis dan ketergantungan pengguna.
Keluarga Joshua Enneking (26) menuding ChatGPT memberikan informasi detail tentang cara memperoleh senjata setelah korban mengungkapkan pikiran bunuh diri. Sementara itu, keluarga Amaurie Lacey (17) menyatakan chatbot tersebut menjelaskan cara mengikat tali gantung dan memperkirakan durasi bertahan tanpa bernapas.
GPT-4o dan Tuduhan Peluncuran Terburu-buru
Dalam gugatan terbaru, keluarga Adams juga menggugat CEO OpenAI Sam Altman. Mereka menilai OpenAI mempercepat peluncuran model GPT-4o pada Mei 2024 dengan memangkas proses pengujian keamanan.
Dokumen gugatan menyebut OpenAI mempersingkat uji keamanan yang semestinya berlangsung berbulan-bulan menjadi sekitar satu minggu. Beberapa anggota tim keamanan internal, menurut dokumen tersebut, menyampaikan keberatan sebelum peluncuran.
Model GPT-4o menuai kritik karena meniru interaksi manusia secara lebih intens. Keluarga Adams menilai karakter chatbot yang terlalu afirmatif memperkuat ikatan emosional dan ketergantungan pengguna, terutama mereka yang rentan secara psikologis.
Sebagai pemegang saham terbesar OpenAI, Microsoft ikut masuk dalam gugatan. Keluarga menilai perusahaan itu tetap menyetujui peluncuran GPT-4o meski mengetahui proses pengamanan berjalan terburu-buru.
Respons OpenAI dan Tuntutan Keluarga
Menanggapi gugatan tersebut, juru bicara OpenAI menyatakan perusahaan akan mempelajari dokumen hukum yang masuk. “Ini situasi yang sangat memilukan. Kami akan meninjau berkas gugatan untuk memahami detailnya,” kata juru bicara OpenAI pada 11 Desember.
Hingga kini, Microsoft belum memberikan pernyataan resmi.
Melalui gugatan ini, keluarga Adams menuntut ganti rugi dalam jumlah yang tidak ditentukan. Mereka juga meminta pengadilan mewajibkan OpenAI menerapkan pengamanan tambahan bagi pengguna rentan.
Ketika kecerdasan buatan semakin mahir meniru empati manusia, kasus ini memunculkan pertanyaan tajam: apakah teknologi hanya menjawab, atau ia juga ikut bertanggung jawab atas dampaknya? @dimas





