
يبدو أن مستخدمي روبوت الدردشة الشهير «شات جي بي تي» (ChatGPT) بحاجة إلى إعادة التفكير قبل مشاركة تفاصيل حياتهم الشخصية أو اللجوء إليه في قضايا حساسة، مثل الاستشارات العاطفية أو حتى الأسرية، وذلك بعد تصريحات مثيرة للجدل أدلى بها سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بشأن خصوصية بيانات المستخدمين.
قال ألتمان في تصريحات حديثة إن قطاع الذكاء الاصطناعي لم يصل بعد إلى مستوى الحماية الكاملة لخصوصية المستخدمين، مؤكدًا أن المحادثات مع «شات جي بي تي» قد تخضع للمراجعة البشرية، كما يمكن أن تُطلب قانونياً وتستخدم في المحاكم إذا صدرت أوامر قضائية رسمية بذلك. وأضاف:
«نفعل ما بوسعنا لحماية خصوصية المستخدم، لكن إذا طُلب منا قانونياً تسليم المعلومات، فعلينا الامتثال».
ad
هذه التصريحات تثير مخاوف متزايدة مع تزايد اعتماد الأفراد على تقنيات الذكاء الاصطناعي في حياتهم اليومية، بدءًا من تنظيم المهام والتخطيط للسفر، وصولًا إلى طلب نصائح مهنية أو حتى التحدث عن مشكلات شخصية.
هل يجمع «ChatGPT» بيانات المستخدمين؟
الإجابة هي نعم. إذ يجمع النموذج اللغوي الضخم بيانات متنوعة، منها:
ad
عنوان IP ونوع المتصفح والجهاز المستخدم.
الموقع الجغرافي والتوقيت المحلي.
جميع البيانات والمحتوى الذي يُدخله المستخدم في المحادثات.
كما يستخدم ملفات تعريف الارتباط (Cookies) ويسجل بيانات الاستخدام لأغراض التعلم وتحسين الأداء.
كيفية استخدام «ChatGPT» بأمان
ينصح خبراء الأمن السيبراني بعدم الاعتماد على إجراءات المنصة وحدها، بل استخدام وسائل حماية إضافية، مثل:
تفعيل شبكة VPN.
تحديث برامج مكافحة الفيروسات باستمرار.
الاعتماد على أدوات تشفير موثوقة للحفاظ على سرية البيانات.
أبرز المخاطر التي يجب الحذر منها
التصيد الاحتيالي المدعوم بالذكاء الاصطناعي
يستغل المخترقون البيانات الحساسة لإنشاء رسائل بريد إلكتروني أو رسائل وهمية مقنعة للغاية، ما يصعّب تمييزها عن الرسائل الأصلية.
النصيحة: تحقق من المصدر الرسمي قبل النقر على أي رابط.
البرمجيات الخبيثة المتطورة
يمكن للمجرمين استخدام الذكاء الاصطناعي لتوليد برمجيات ضارة قادرة على تغيير سلوكها لتجنب اكتشافها.
المعلومات غير الدقيقة والمضللة
يعاني «ChatGPT» من مشكلة تقديم إجابات قديمة أو غير دقيقة في بعض المواضيع، وهو ما أكدته دراسة مشتركة بين جامعة ستانفورد وجامعة كاليفورنيا، بيركلي، في أغسطس 2023.
التطبيقات والإضافات المزيفة
هناك تطبيقات تدّعي أنها مرتبطة بـ«ChatGPT» لكنها في الحقيقة خبيثة، ويمكن أن تعرض جهازك للاختراق عند تنزيلها.
غياب الامتياز القانوني
أكد ألتمان أن «ChatGPT» لا يتمتع بسرية قانونية مثل علاقة العميل بالمحامي أو الطبيب النفسي، ما يعني أن أي معلومات شخصية أو اعترافات قد تكون عرضة للاستخدام القانوني إذا اقتضى الأمر.
هل يمكن للمحاكم الوصول إلى محادثات «ChatGPT»؟
وفق خبراء قانونيين، يمكن استدعاء بيانات المحادثات في حال صدور أمر قضائي رسمي. وفي بعض الدول التي تفتقر لقوانين حماية بيانات واضحة، قد تصبح هذه البيانات عرضة للاستغلال من قبل جهات أمنية أو حكومية.
في ظل هذه المخاطر، ينصح الخبراء بعدم استخدام «ChatGPT» في القضايا الحساسة أو التي تتطلب سرية مطلقة، والحرص على حماية البيانات الشخصية أثناء تصفح الإنترنت.