الميزة الجديدة التي أعلنت عنها OpenAI، ChatGPT Health، أثارت أسئلة جدية حول مدى حماية المعلومات الشخصية الحساسة عندما يثق المستخدمون بسجلاتهم الطبية لمنصات الذكاء الاصطناعي. بينما تدعي الشركة أنها نفذت تدابير حماية، يجادل المدافعون عن الخصوصية بأن اللوائح الحالية تخلق ثغرات خطيرة في حماية المستهلك.
فجوة حماية الخصوصية وراء كيانات HIPAA المغطاة
إليك الفرق الحاسم الذي يغفله معظم المستخدمين: يتم التعامل مع البيانات الصحية بشكل قانوني مختلف اعتمادًا على من يحتفظ بها. عندما تخزن كيانات مغطاة بموجب HIPAA — مثل المستشفيات، شركات التأمين، أو مكاتب الأطباء — تطبق قواعد صارمة للخصوصية. ومع ذلك، فإن شركات التكنولوجيا، منصات الذكاء الاصطناعي، ومطورو تطبيقات الصحة يعملون في مساحة غير منظمة إلى حد كبير.
يسلط أندرو كروفورد، المستشار القانوني الأول في مركز الديمقراطية والتكنولوجيا، الضوء على هذا التفاوت: “تطبق قواعد خصوصية HIPAA عندما تكون بياناتك الصحية محتجزة من قبل طبيبك أو شركة التأمين الخاصة بك. الأمر ليس كذلك بالنسبة للكيانات غير المغطاة بـ HIPAA، مثل مطوري تطبيقات الصحة، أجهزة تتبع اللياقة، أو شركات الذكاء الاصطناعي.” هذا يعني أن ChatGPT Health، على الرغم من التشفير والتخزين المنفصل، لا يخضع لنفس معايير الامتثال التي يخضع لها مقدمو الرعاية الصحية التقليديون.
نهج OpenAI تجاه الميزة الجديدة
يتيح ChatGPT Health للمستخدمين رفع السجلات الطبية ومعلومات العافية مباشرة إلى المنصة. وتذكر OpenAI أن الأداة مصممة لمساعدة المستخدمين على فهم صحتهم بدلاً من تقديم خدمات تشخيصية أو علاجية. تؤكد الشركة أنها ستشارك فقط معلومات صحية عامة وواقعية، وتحدد الحالات عالية الخطورة للمشاورة مع محترفين صحيين فعليين.
يبدأ طرح الميزة هذا الأسبوع لمستخدمين مختارين خارج الاتحاد الأوروبي والمملكة المتحدة، مع توسع الوصول عبر iOS والويب خلال الأسابيع القادمة.
القلق الأعمق: من يتحكم في بياناتك؟
يشير جي. بي. برانش، المدافع عن مساءلة الشركات الكبرى في منظمة المواطن العام، إلى أن التنظيم الذاتي غير كافٍ. “حتى عندما تدعي الشركات وجود تدابير حماية للخصوصية، غالبًا ما يفتقر المستهلكون إلى موافقة ذات معنى، أو شفافية، أو سيطرة على كيفية استخدام بياناتهم، أو الاحتفاظ بها، أو إعادة استخدامها،” قال برانش. “البيانات الصحية فريدة من نوعها وحساسة، وبدون حدود قانونية واضحة وإشراف قابل للتنفيذ، لا يمكن للضوابط الذاتية أن تحمي الناس من سوء الاستخدام، أو إعادة التعريف، أو الأضرار اللاحقة.”
تمتد المشكلة إلى ما هو أبعد من الاستخدام الحالي. تقول OpenAI إن المحادثات الصحية لن تُستخدم لتدريب نماذجها الأساسية، لكن غياب تشريع فدرالي شامل للخصوصية يعني أنه لا يوجد ما يمنع إعادة استخدام هذه البيانات في المستقبل.
البعد المتزايد للصحة النفسية
توقيت إطلاق ChatGPT Health جدير بالملاحظة. كانت OpenAI قد كشفت سابقًا أن أكثر من مليون مستخدم يناقشون الانتحار والأزمات النفسية مع ChatGPT أسبوعيًا — وهو ما يمثل حوالي 0.15% من قاعدة مستخدميها. يبرز هذا الحجم كيف أصبح المنصة مصدرًا فعليًا للصحة النفسية، ومع ذلك فهي تفتقر إلى الإطار التنظيمي الذي يحكم عادة البيانات النفسية الحساسة.
المشكلة الحقيقية: عبء المستهلك في بيئة غير منظمة
يؤكد كروفورد أن السياسة الفدرالية قد حولت بشكل أساسي العبء على المستخدمين الأفراد. “قوانيننا الحالية تضع المسؤولية على المستهلكين لتحليل مدى ارتياحهم لكيفية تعامل التكنولوجيا التي يستخدمونها يوميًا مع بياناتهم،” أوضح. “غياب قانون فدرالي شامل للخصوصية ينظم البيانات الصحية التي تحتفظ بها شركات التكنولوجيا يعني أن الأفراد يجب أن يجريوا تقييمات مخاطر خاصة بهم.”
على عكس الكيانات المغطاة بموجب HIPAA الملزمة قانونيًا، تحدد شركات مثل OpenAI معايير خصوصيتها الخاصة. وبدون تدخل فدرالي أو تحديثات تنظيمية تأخذ في الاعتبار بيانات الصحة التي تحتفظ بها الذكاء الاصطناعي، من المحتمل أن يستمر هذا الاختلال.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
عندما تتعامل أدوات الذكاء الاصطناعي مع البيانات الطبية: لماذا ليست كيانات HIPAA المغطاة هي القلق الوحيد
الميزة الجديدة التي أعلنت عنها OpenAI، ChatGPT Health، أثارت أسئلة جدية حول مدى حماية المعلومات الشخصية الحساسة عندما يثق المستخدمون بسجلاتهم الطبية لمنصات الذكاء الاصطناعي. بينما تدعي الشركة أنها نفذت تدابير حماية، يجادل المدافعون عن الخصوصية بأن اللوائح الحالية تخلق ثغرات خطيرة في حماية المستهلك.
فجوة حماية الخصوصية وراء كيانات HIPAA المغطاة
إليك الفرق الحاسم الذي يغفله معظم المستخدمين: يتم التعامل مع البيانات الصحية بشكل قانوني مختلف اعتمادًا على من يحتفظ بها. عندما تخزن كيانات مغطاة بموجب HIPAA — مثل المستشفيات، شركات التأمين، أو مكاتب الأطباء — تطبق قواعد صارمة للخصوصية. ومع ذلك، فإن شركات التكنولوجيا، منصات الذكاء الاصطناعي، ومطورو تطبيقات الصحة يعملون في مساحة غير منظمة إلى حد كبير.
يسلط أندرو كروفورد، المستشار القانوني الأول في مركز الديمقراطية والتكنولوجيا، الضوء على هذا التفاوت: “تطبق قواعد خصوصية HIPAA عندما تكون بياناتك الصحية محتجزة من قبل طبيبك أو شركة التأمين الخاصة بك. الأمر ليس كذلك بالنسبة للكيانات غير المغطاة بـ HIPAA، مثل مطوري تطبيقات الصحة، أجهزة تتبع اللياقة، أو شركات الذكاء الاصطناعي.” هذا يعني أن ChatGPT Health، على الرغم من التشفير والتخزين المنفصل، لا يخضع لنفس معايير الامتثال التي يخضع لها مقدمو الرعاية الصحية التقليديون.
نهج OpenAI تجاه الميزة الجديدة
يتيح ChatGPT Health للمستخدمين رفع السجلات الطبية ومعلومات العافية مباشرة إلى المنصة. وتذكر OpenAI أن الأداة مصممة لمساعدة المستخدمين على فهم صحتهم بدلاً من تقديم خدمات تشخيصية أو علاجية. تؤكد الشركة أنها ستشارك فقط معلومات صحية عامة وواقعية، وتحدد الحالات عالية الخطورة للمشاورة مع محترفين صحيين فعليين.
يبدأ طرح الميزة هذا الأسبوع لمستخدمين مختارين خارج الاتحاد الأوروبي والمملكة المتحدة، مع توسع الوصول عبر iOS والويب خلال الأسابيع القادمة.
القلق الأعمق: من يتحكم في بياناتك؟
يشير جي. بي. برانش، المدافع عن مساءلة الشركات الكبرى في منظمة المواطن العام، إلى أن التنظيم الذاتي غير كافٍ. “حتى عندما تدعي الشركات وجود تدابير حماية للخصوصية، غالبًا ما يفتقر المستهلكون إلى موافقة ذات معنى، أو شفافية، أو سيطرة على كيفية استخدام بياناتهم، أو الاحتفاظ بها، أو إعادة استخدامها،” قال برانش. “البيانات الصحية فريدة من نوعها وحساسة، وبدون حدود قانونية واضحة وإشراف قابل للتنفيذ، لا يمكن للضوابط الذاتية أن تحمي الناس من سوء الاستخدام، أو إعادة التعريف، أو الأضرار اللاحقة.”
تمتد المشكلة إلى ما هو أبعد من الاستخدام الحالي. تقول OpenAI إن المحادثات الصحية لن تُستخدم لتدريب نماذجها الأساسية، لكن غياب تشريع فدرالي شامل للخصوصية يعني أنه لا يوجد ما يمنع إعادة استخدام هذه البيانات في المستقبل.
البعد المتزايد للصحة النفسية
توقيت إطلاق ChatGPT Health جدير بالملاحظة. كانت OpenAI قد كشفت سابقًا أن أكثر من مليون مستخدم يناقشون الانتحار والأزمات النفسية مع ChatGPT أسبوعيًا — وهو ما يمثل حوالي 0.15% من قاعدة مستخدميها. يبرز هذا الحجم كيف أصبح المنصة مصدرًا فعليًا للصحة النفسية، ومع ذلك فهي تفتقر إلى الإطار التنظيمي الذي يحكم عادة البيانات النفسية الحساسة.
المشكلة الحقيقية: عبء المستهلك في بيئة غير منظمة
يؤكد كروفورد أن السياسة الفدرالية قد حولت بشكل أساسي العبء على المستخدمين الأفراد. “قوانيننا الحالية تضع المسؤولية على المستهلكين لتحليل مدى ارتياحهم لكيفية تعامل التكنولوجيا التي يستخدمونها يوميًا مع بياناتهم،” أوضح. “غياب قانون فدرالي شامل للخصوصية ينظم البيانات الصحية التي تحتفظ بها شركات التكنولوجيا يعني أن الأفراد يجب أن يجريوا تقييمات مخاطر خاصة بهم.”
على عكس الكيانات المغطاة بموجب HIPAA الملزمة قانونيًا، تحدد شركات مثل OpenAI معايير خصوصيتها الخاصة. وبدون تدخل فدرالي أو تحديثات تنظيمية تأخذ في الاعتبار بيانات الصحة التي تحتفظ بها الذكاء الاصطناعي، من المحتمل أن يستمر هذا الاختلال.