Khi các Công Cụ AI Xử Lý Dữ Liệu Y Tế: Tại Sao Các Tổ Chức Được Bảo Hiểm Theo HIPAA Không Phải Là Mối Quan Tâm Duy Nhất

Tính năng ChatGPT Health mới được OpenAI công bố đã gây ra những câu hỏi nghiêm trọng về cách bảo vệ thông tin cá nhân nhạy cảm khi người dùng gửi hồ sơ y tế của họ cho các nền tảng trí tuệ nhân tạo. Trong khi công ty khẳng định đã triển khai các biện pháp phòng ngừa, các nhà vận động quyền riêng tư cho rằng các quy định hiện hành tạo ra những khoảng trống nguy hiểm trong việc bảo vệ người tiêu dùng.

Khoảng Trống Bảo Vệ Quyền Riêng Tư Ngoài Các Đối Tượng Được Bảo Vệ Theo HIPAA

Điều phân biệt quan trọng mà hầu hết người dùng bỏ lỡ là: dữ liệu sức khỏe được xử lý theo các quy định pháp lý khác nhau tùy thuộc vào ai nắm giữ nó. Khi các đối tượng được bảo vệ theo HIPAA — như bệnh viện, công ty bảo hiểm hoặc phòng khám bác sĩ — lưu trữ thông tin y tế của bạn, các quy tắc bảo mật nghiêm ngặt sẽ được áp dụng. Tuy nhiên, các công ty công nghệ, nền tảng AI và nhà phát triển ứng dụng sức khỏe hoạt động trong một không gian hầu như không có quy định rõ ràng.

Andrew Crawford, cố vấn chính sách cao cấp tại Trung tâm Dân chủ và Công nghệ, nhấn mạnh sự chênh lệch này: “Các quy tắc quyền riêng tư HIPAA áp dụng khi dữ liệu sức khỏe của bạn do bác sĩ hoặc công ty bảo hiểm giữ. Điều này không đúng với các thực thể không thuộc phạm vi HIPAA, như nhà phát triển ứng dụng sức khỏe, thiết bị theo dõi đeo hoặc các công ty AI.” Điều này có nghĩa là ChatGPT Health, mặc dù mã hóa và lưu trữ tách biệt, không bị ràng buộc bởi các tiêu chuẩn tuân thủ giống như các nhà cung cấp dịch vụ chăm sóc sức khỏe truyền thống.

Cách Tiếp Cận của OpenAI Với Tính Năng Mới

ChatGPT Health cho phép người dùng tải lên hồ sơ y tế và thông tin về sức khỏe trực tiếp vào nền tảng. OpenAI tuyên bố rằng công cụ này được thiết kế để giúp người dùng hiểu rõ về sức khỏe của họ hơn chứ không cung cấp dịch vụ chẩn đoán hoặc điều trị. Công ty nhấn mạnh rằng họ sẽ chỉ chia sẻ thông tin sức khỏe chung, mang tính khách quan và sẽ cảnh báo các tình huống nguy cơ cao để tham khảo ý kiến của các chuyên gia y tế thực thụ.

Việc triển khai bắt đầu trong tuần này cho một số người dùng ngoài EU và UK, với việc mở rộng truy cập iOS và web trong những tuần tới.

Mối Lo Ngại Sâu Hơn: Ai Kiểm Soát Dữ Liệu Của Bạn?

J.B. Branch, nhà vận động trách nhiệm của các tập đoàn công nghệ lớn tại Public Citizen, chỉ ra rằng tự quản lý không đủ. “Ngay cả khi các công ty tuyên bố có các biện pháp bảo vệ quyền riêng tư, người tiêu dùng thường thiếu sự đồng ý có ý nghĩa, minh bạch hoặc quyền kiểm soát đối với cách dữ liệu của họ được sử dụng, lưu giữ hoặc tái sử dụng,” Branch nói. “Dữ liệu sức khỏe đặc biệt nhạy cảm, và nếu không có giới hạn pháp lý rõ ràng cũng như sự giám sát có thể thực thi, các biện pháp tự quản lý đơn thuần sẽ không thể bảo vệ người dùng khỏi việc lạm dụng, tái định danh hoặc các tác hại về sau.”

Vấn đề còn vượt ra ngoài cách sử dụng hiện tại. OpenAI cho biết các cuộc trò chuyện về sức khỏe sẽ không đào tạo các mô hình nền tảng của họ, nhưng sự thiếu vắng luật pháp liên bang toàn diện về quyền riêng tư có nghĩa là sẽ ít có khả năng ngăn chặn việc tái sử dụng dữ liệu này trong tương lai.

Khía Cạnh Tâm Thần Sức Khỏe Ngày Càng Phổ Biến

Thời điểm ra mắt ChatGPT Health đáng chú ý. OpenAI trước đó tiết lộ rằng hơn 1 triệu người dùng thảo luận về tự tử và các khủng hoảng tâm thần với ChatGPT hàng tuần — chiếm khoảng 0.15% tổng số người dùng của nền tảng. Khối lượng này nhấn mạnh rằng nền tảng đã trở thành một nguồn tài nguyên tâm thần thực tế, nhưng lại thiếu khung pháp lý điều chỉnh các dữ liệu tâm lý nhạy cảm này.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim