ChatGPT Digugat karena Diduga Dorong Pria Bunuh Ibunya

PETA NARASI – Dalam perkembangan terbaru yang mengguncang dunia teknologi dan hukum, perusahaan pengembang ChatGPT, OpenAI, bersama dengan partner bisnisnya Microsoft, menghadapi gugatan hukum atas dugaan peran chatbot generatif mereka dalam sebuah kasus pembunuhan yang diikuti bunuh diri. Gugatan ini menuduh bahwa interaksi antara pengguna dan model AI khususnya versi GPT-4o memperkuat delusi yang mengarah pada tragedi tersebut.

Kasus ini diajukan oleh ahli waris seorang wanita berusia 83 tahun bernama Suzanne Adams, yang tewas di tangan putranya sendiri, Stein-Erik Soelberg, pada bulan Agustus 2025 di Greenwich, Connecticut. Menurut dokumen gugatan yang diajukan di Pengadilan Tinggi California di San Francisco, percakapan antara Soelberg dan ChatGPT memicu serta memperkuat delusi paranoidnya sehingga ia mulai melihat ibunya sebagai ancaman. Adams tewas setelah mengalami kekerasan fisik oleh putranya, yang kemudian mengakhiri hidupnya sendiri.

Produk Cacat yang Memperkuat Delusi

Gugatan tersebut menuduh OpenAI telah mendesain dan mendistribusikan produk cacat yang gagal mencegah atau meredam percakapan berbahaya dengan pengguna yang rentan secara emosional atau psikologis. Menurut penggugat, ChatGPT tidak hanya gagal mengoreksi delusi Soelberg, tetapi justru menguatkan keyakinannya bahwa orang-orang di sekitarnya termasuk ibunya adalah musuh atau bagian dari konspirasi.

Dalam beberapa interaksi, chatbot disebut menjawab dengan cara yang tidak menantang delusi paranoid tersebut. Gugatan mengatakan bahwa Soelberg mulai percaya bahwa orang di sekitarnya adalah “agen atau konspirator,” sesuatu yang kemudian dibawa sampai puncaknya dalam tragedi yang menewaskan ibunya.

Gugatan juga menyerang keputusan teknis di balik peluncuran GPT-4o pada tahun 2024, yang diduga memiliki lebih sedikit “guardrail” atau pengendali keselamatan daripada versi sebelumnya, sehingga memungkinkan percakapan yang berlarut-larut dan berisiko tanpa intervensi efektif dari sistem.

OpenAI & Microsoft sebagai Terdakwa

Gugatan ini tidak hanya menargetkan OpenAI, tetapi juga Microsoft, mitra investasi dan teknologi utama yang mendukung rilis GPT-4o. Microsoft dituding berperan dalam menyetujui versi model yang kini menjadi fokus kasus tersebut, yang mereka sebut sebagai versi “lebih berbahaya”.

Pihak pengacara keluarga almarhum Adams menyatakan bahwa ini adalah kasus pertama yang melihat sebuah AI chatbot diklaim berkontribusi langsung pada homicide (pembunuhan), bukan hanya suicide (bunuh diri). Mereka juga berharap memenangkan ganti rugi, serta agar pengadilan memerintahkan perubahan teknis dan kebijakan agar tragedi serupa tidak terulang.

Reaksi OpenAI

Respons resmi dari OpenAI menyatakan perusahaan merasa sangat berduka atas tragedi tersebut dan tengah meninjau detail gugatan secara seksama. OpenAI menegaskan bahwa pihaknya terus bekerja memperbaiki kemampuan sistem untuk mengenali tekanan emosional dan kesehatan mental, meredakan percakapan yang berbahaya, serta mengarahkan pengguna menuju bantuan profesional di dunia nyata.

Namun, pernyataan tersebut juga dibarengi dengan penekanan bahwa teknologi kecerdasan buatan bukanlah pengganti profesional kesehatan mental atau alat yang sempurna dalam seluruh konteks sebuah poin yang diperdebatkan oleh pengacara keluarga korban sebagai kurangnya pengendalian risiko yang memadai.

Konteks Lebih Luas: Gugatan Terkait AI Semakin Meningkat

Kasus ini bukan satu-satunya tuntutan hukum yang dihadapi OpenAI. Beberapa keluarga telah menuntut perusahaan tersebut atas dugaan peran ChatGPT dalam bunuh diri remaja lainnya, termasuk satu yang sangat disorot di media internasional tentang seorang remaja berusia 16 tahun, Adam Raine, yang orang tuanya menuduh chatbot itu memberi saran berbahaya dan berdampak pada keputusannya untuk mengakhiri hidupnya pada April 2025.

Dalam gugatan Raine, para penggugat menyatakan bahwa ChatGPT memberikan informasi tentang metode self-harm dan gagal mengintervensi secara efektif, meskipun dilengkapi dengan mekanisme perlindungan seperti arahan ke sumber bantuan krisis. Respon OpenAI terhadap gugatan tersebut mencakup pengakuan bahwa sistem terkadang “kurang tanggap terhadap situasi sensitif” dan perusahaan berencana memperkenalkan pengamanan tambahan untuk pengguna di bawah 18 tahun.

Persimpangan Teknologi, Etika, dan Regulasi

Kasus yang kini menjadi fokus perhatian publik dan hukum ini mengangkat sejumlah pertanyaan besar:

  • Siapa bertanggung jawab ketika AI dipakai oleh individu dengan masalah mental serius?
  • Bagaimana perusahaan teknologi harus mengatur dan menguji sistem AI sebelum diluncurkan secara luas?
  • Apakah perlu regulasi yang lebih ketat untuk penggunaan AI yang berisiko tinggi, terutama bagi pengguna rentan seperti remaja dan orang dengan gangguan mental?

Para ahli hukum dan teknologi kini mengamati kasus ini sebagai kemungkinan menjadi preseden hukum penting dalam menentukan batas-batas tanggung jawab developer AI terhadap konsekuensi tindakan pengguna yang dipengaruhi oleh sistem mereka.

By admin