سام آلتمان يحذر من عدم وجود سرية قانونية عند استخدام ChatGPT كمعالج نفسي

سام آلتمان يحذر من عدم وجود سرية قانونية عند استخدام

قد يرغب مستخدمو ChatGPT في التفكير مرتين قبل اللجوء إلى تطبيق الذكاء الاصطناعي الخاص بهم للعلاج أو أنواع الدعم العاطفي الأخرى. وفقًا لرئيس OpenAI، سام ألتمان، لم يتمكن قطاع الذكاء الاصطناعي بعد من معرفة كيفية حماية خصوصية المستخدمين عندما يتعلق الأمر بهذه المحادثات الحساسة، لأنه لا توجد سرية بين الطبيب والمريض عندما يكون طبيبك هو الذكاء الاصطناعي.

أدلى المسؤول بهذه التعليقات في حلقة حديثة من بودكاست ثيو فون، “هذا الأسبوع الماضي مع ثيو فون”.

ردًا على سؤال حول كيفية عمل الذكاء الاصطناعي مع النظام القانوني الحالي، قال ألتمان إن أحد مشاكل عدم وجود إطار قانوني أو سياسة للذكاء الاصطناعي هو عدم وجود سرية قانونية لمحادثات المستخدمين.

“يتحدث الناس عن أكثر الأمور الشخصية في حياتهم إلى ChatGPT”، قال ألتمان. “يستخدمه الناس – وخاصة الشباب – كمعالج أو مدرب حياة؛ لديهم مشاكل في العلاقات و[يطرحون] ‘ماذا يجب أن أفعل؟’ والآن، إذا تحدثت إلى معالج أو محامٍ أو طبيب بشأن تلك المشاكل، هناك خصوصية قانونية لذلك. هناك سرية بين الطبيب والمريض، هناك سرية قانونية، مهما كان. ولم نتمكن بعد من ذلك عندما تتحدث إلى ChatGPT.”

يمكن أن يثير هذا مخاوف بشأن الخصوصية للمستخدمين في حالة الدعوى القانونية، أضاف ألتمان، لأن OpenAI سيكون ملزمًا قانونًا بإنتاج تلك المحادثات اليوم.

“أعتقد أن هذا أمر غير مقبول. أعتقد أننا يجب أن يكون لدينا نفس مفهوم الخصوصية لمحادثاتك مع الذكاء الاصطناعي كما لدينا مع المعالج أو غيره – ولم يكن على أحد التفكير في ذلك حتى قبل عام”، قال ألتمان.

تفهم الشركة أن عدم وجود الخصوصية يمكن أن يكون عائقًا أمام تبني أوسع من قبل المستخدمين. بالإضافة إلى الطلب الضخم للذكاء الاصطناعي على البيانات عبر الإنترنت خلال فترة التدريب، يُطلب منها إنتاج بيانات من محادثات المستخدمين في بعض السياقات القانونية. بالفعل، كانت OpenAI تخوض صراعًا قانونيًا ضد أمر محكمة في دعواها مع صحيفة نيويورك تايمز، الذي من شأنه أن يتطلب منها حفظ محادثات مئات الملايين من مستخدمي ChatGPT على مستوى العالم، باستثناء أولئك من عملاء ChatGPT Enterprise.

فعالية Techcrunch

سان فرانسيسكو
|
27-29 أكتوبر 2025

في بيان على موقعها الإلكتروني، قالت OpenAI إنها تستأنف هذا الأمر، الذي وصفته بأنه “تجاوز”. إذا تمكنت المحكمة من تجاوز قرارات OpenAI نفسها بشأن خصوصية البيانات، فقد تفتح الشركة لمزيد من الطلبات للكشف القانوني أو لأغراض إنفاذ القانون. تتلقى الشركات التكنولوجية اليوم بشكل منتظم استدعاءات للحصول على بيانات المستخدمين للمساعدة في الملاحقات الجنائية. لكن في السنوات الأخيرة، كانت هناك مزيد من المخاوف بشأن البيانات الرقمية مع بدء القوانين في تقليص الوصول إلى الحريات التي وُجدت مسبقًا، مثل حق المرأة في الاختيار.

عندما ألغت المحكمة العليا قرار رو ضد ويد، على سبيل المثال، بدأ العملاء في الانتقال إلى تطبيقات تتبع الدورة الشهرية الأكثر خصوصية أو إلى Apple Health، التي كانت تشفر سجلاتهم.

سأل ألتمان مضيف البودكاست عن استخدامه الخاص لـ ChatGPT، نظرًا لأن فون قال إنه لا يتحدث كثيرًا إلى الدردشة الذكية بسبب مخاوفه من الخصوصية.

“أعتقد أن من المنطقي … أن ترغب حقًا في وضوح الخصوصية قبل أن تستخدم [ChatGPT] كثيرًا – مثل الوضوح القانوني”، قال ألتمان.


المصدر