Fitur ChatGPT Health yang baru saja diumumkan oleh OpenAI telah memicu pertanyaan serius tentang bagaimana perlindungan data pribadi yang sensitif dilakukan saat pengguna mempercayakan catatan medis mereka ke platform kecerdasan buatan. Meskipun perusahaan mengklaim telah menerapkan langkah-langkah pengamanan, para advokat privasi berpendapat bahwa regulasi yang ada menciptakan celah berbahaya dalam perlindungan konsumen.
Celah Perlindungan Privasi di Luar Entitas yang Dilindungi HIPAA
Inilah perbedaan penting yang sering dilewatkan oleh sebagian besar pengguna: data kesehatan mendapatkan perlakuan hukum yang berbeda tergantung siapa yang memegangnya. Ketika entitas yang dilindungi HIPAA—seperti rumah sakit, perusahaan asuransi, atau kantor dokter—menyimpan informasi medis Anda, aturan privasi yang ketat berlaku. Namun, perusahaan teknologi, platform AI, dan pengembang aplikasi kesehatan beroperasi di ruang yang sebagian besar tidak diatur.
Andrew Crawford, penasihat kebijakan senior di Center for Democracy and Technology, menyoroti disparitas ini: “Aturan privasi HIPAA berlaku ketika data kesehatan Anda dipegang oleh dokter atau perusahaan asuransi Anda. Hal yang sama tidak berlaku untuk entitas non-HIPAA, seperti pengembang aplikasi kesehatan, pelacak wearable, atau perusahaan AI.” Ini berarti ChatGPT Health, meskipun menggunakan enkripsi dan penyimpanan terpisah, tidak terikat oleh standar kepatuhan yang sama seperti penyedia layanan kesehatan tradisional.
Pendekatan OpenAI terhadap Fitur Baru
ChatGPT Health memungkinkan pengguna mengunggah catatan medis dan informasi kesehatan langsung ke platform. OpenAI menyatakan bahwa alat ini dirancang untuk membantu pengguna memahami kesehatan mereka daripada memberikan layanan diagnosis atau pengobatan. Perusahaan menekankan bahwa mereka hanya akan membagikan informasi kesehatan umum dan faktual serta menandai skenario berisiko tinggi untuk konsultasi dengan profesional kesehatan yang sesungguhnya.
Peluncuran dimulai minggu ini untuk pengguna tertentu di luar UE dan Inggris, dengan akses iOS dan web yang akan diperluas dalam beberapa minggu mendatang.
Kekhawatiran Lebih Dalam: Siapa yang Mengendalikan Data Anda?
J.B. Branch, advokat akuntabilitas teknologi besar dari Public Citizen, menunjukkan bahwa regulasi mandiri tidak cukup. “Bahkan ketika perusahaan mengklaim memiliki langkah-langkah perlindungan privasi, konsumen sering kekurangan persetujuan yang bermakna, transparansi, atau kontrol atas bagaimana data mereka digunakan, disimpan, atau digunakan kembali,” kata Branch. “Data kesehatan sangat sensitif secara unik, dan tanpa batasan hukum yang jelas serta pengawasan yang dapat ditegakkan, langkah-langkah mandiri tidak dapat melindungi orang dari penyalahgunaan, re-identifikasi, atau kerugian di masa depan.”
Isu ini melampaui penggunaan saat ini. OpenAI mengatakan bahwa percakapan kesehatan tidak akan digunakan untuk melatih model dasar mereka, tetapi ketidakadaan legislasi privasi federal yang komprehensif berarti sedikit yang dapat mencegah penggunaan kembali data ini di masa depan.
Dimensi Kesehatan Mental yang Semakin Meningkat
Waktu peluncuran ChatGPT Health patut dicatat. OpenAI sebelumnya mengungkapkan bahwa lebih dari 1 juta pengguna berdiskusi tentang bunuh diri dan krisis kesehatan mental dengan ChatGPT setiap minggu—yang mewakili sekitar 0,15% dari basis penggunanya. Volume ini menunjukkan bagaimana platform ini telah menjadi sumber daya kesehatan mental de facto, namun tanpa kerangka regulasi yang biasanya mengatur data psikologis yang sensitif.
Masalah Utama: Beban Konsumen dalam Lanskap yang Tidak Diatur
Crawford menekankan bahwa kebijakan federal pada dasarnya telah memindahkan beban tersebut ke pengguna individu. “Hukum kita saat ini menempatkan tanggung jawab pada konsumen untuk menganalisis apakah mereka nyaman dengan bagaimana teknologi yang mereka gunakan setiap hari menangani data mereka,” jelasnya. “Ketidakadaan undang-undang privasi federal yang komprehensif yang mengatur data kesehatan yang dimiliki perusahaan teknologi berarti individu harus melakukan penilaian risiko sendiri.”
Berbeda dengan entitas yang dilindungi HIPAA yang terikat oleh kewajiban hukum, perusahaan seperti OpenAI menentukan standar privasi mereka sendiri. Tanpa intervensi federal atau regulasi yang diperbarui yang mempertimbangkan data kesehatan yang dipegang AI, ketidakseimbangan ini kemungkinan akan terus berlanjut.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Ketika Alat AI Mengelola Data Medis: Mengapa Entitas yang Dilindungi HIPAA Bukan Satu-satunya Kekhawatiran
Fitur ChatGPT Health yang baru saja diumumkan oleh OpenAI telah memicu pertanyaan serius tentang bagaimana perlindungan data pribadi yang sensitif dilakukan saat pengguna mempercayakan catatan medis mereka ke platform kecerdasan buatan. Meskipun perusahaan mengklaim telah menerapkan langkah-langkah pengamanan, para advokat privasi berpendapat bahwa regulasi yang ada menciptakan celah berbahaya dalam perlindungan konsumen.
Celah Perlindungan Privasi di Luar Entitas yang Dilindungi HIPAA
Inilah perbedaan penting yang sering dilewatkan oleh sebagian besar pengguna: data kesehatan mendapatkan perlakuan hukum yang berbeda tergantung siapa yang memegangnya. Ketika entitas yang dilindungi HIPAA—seperti rumah sakit, perusahaan asuransi, atau kantor dokter—menyimpan informasi medis Anda, aturan privasi yang ketat berlaku. Namun, perusahaan teknologi, platform AI, dan pengembang aplikasi kesehatan beroperasi di ruang yang sebagian besar tidak diatur.
Andrew Crawford, penasihat kebijakan senior di Center for Democracy and Technology, menyoroti disparitas ini: “Aturan privasi HIPAA berlaku ketika data kesehatan Anda dipegang oleh dokter atau perusahaan asuransi Anda. Hal yang sama tidak berlaku untuk entitas non-HIPAA, seperti pengembang aplikasi kesehatan, pelacak wearable, atau perusahaan AI.” Ini berarti ChatGPT Health, meskipun menggunakan enkripsi dan penyimpanan terpisah, tidak terikat oleh standar kepatuhan yang sama seperti penyedia layanan kesehatan tradisional.
Pendekatan OpenAI terhadap Fitur Baru
ChatGPT Health memungkinkan pengguna mengunggah catatan medis dan informasi kesehatan langsung ke platform. OpenAI menyatakan bahwa alat ini dirancang untuk membantu pengguna memahami kesehatan mereka daripada memberikan layanan diagnosis atau pengobatan. Perusahaan menekankan bahwa mereka hanya akan membagikan informasi kesehatan umum dan faktual serta menandai skenario berisiko tinggi untuk konsultasi dengan profesional kesehatan yang sesungguhnya.
Peluncuran dimulai minggu ini untuk pengguna tertentu di luar UE dan Inggris, dengan akses iOS dan web yang akan diperluas dalam beberapa minggu mendatang.
Kekhawatiran Lebih Dalam: Siapa yang Mengendalikan Data Anda?
J.B. Branch, advokat akuntabilitas teknologi besar dari Public Citizen, menunjukkan bahwa regulasi mandiri tidak cukup. “Bahkan ketika perusahaan mengklaim memiliki langkah-langkah perlindungan privasi, konsumen sering kekurangan persetujuan yang bermakna, transparansi, atau kontrol atas bagaimana data mereka digunakan, disimpan, atau digunakan kembali,” kata Branch. “Data kesehatan sangat sensitif secara unik, dan tanpa batasan hukum yang jelas serta pengawasan yang dapat ditegakkan, langkah-langkah mandiri tidak dapat melindungi orang dari penyalahgunaan, re-identifikasi, atau kerugian di masa depan.”
Isu ini melampaui penggunaan saat ini. OpenAI mengatakan bahwa percakapan kesehatan tidak akan digunakan untuk melatih model dasar mereka, tetapi ketidakadaan legislasi privasi federal yang komprehensif berarti sedikit yang dapat mencegah penggunaan kembali data ini di masa depan.
Dimensi Kesehatan Mental yang Semakin Meningkat
Waktu peluncuran ChatGPT Health patut dicatat. OpenAI sebelumnya mengungkapkan bahwa lebih dari 1 juta pengguna berdiskusi tentang bunuh diri dan krisis kesehatan mental dengan ChatGPT setiap minggu—yang mewakili sekitar 0,15% dari basis penggunanya. Volume ini menunjukkan bagaimana platform ini telah menjadi sumber daya kesehatan mental de facto, namun tanpa kerangka regulasi yang biasanya mengatur data psikologis yang sensitif.
Masalah Utama: Beban Konsumen dalam Lanskap yang Tidak Diatur
Crawford menekankan bahwa kebijakan federal pada dasarnya telah memindahkan beban tersebut ke pengguna individu. “Hukum kita saat ini menempatkan tanggung jawab pada konsumen untuk menganalisis apakah mereka nyaman dengan bagaimana teknologi yang mereka gunakan setiap hari menangani data mereka,” jelasnya. “Ketidakadaan undang-undang privasi federal yang komprehensif yang mengatur data kesehatan yang dimiliki perusahaan teknologi berarti individu harus melakukan penilaian risiko sendiri.”
Berbeda dengan entitas yang dilindungi HIPAA yang terikat oleh kewajiban hukum, perusahaan seperti OpenAI menentukan standar privasi mereka sendiri. Tanpa intervensi federal atau regulasi yang diperbarui yang mempertimbangkan data kesehatan yang dipegang AI, ketidakseimbangan ini kemungkinan akan terus berlanjut.