تحذير علمي: تطبيقات الذكاء الاصطناعي قد تخلق علاقات وهمية ومخاطر عاطفية للمستخدمين


الاحد 20 ابريل 2025 | 12:53 مساءً
تطبيقات الذكاء الاصطناعي قد تخلق علاقات وهمية ومخاطر عاطفية
تطبيقات الذكاء الاصطناعي قد تخلق علاقات وهمية ومخاطر عاطفية
ابتسام الدوسري

حذّرت دراسة علمية حديثة من تنامي مخاطر التعلق العاطفي والإفراط في استخدام تطبيقات محادثة الذكاء الاصطناعي، مثل ChatGPT وغيره من برامج الدردشة التفاعلية، وذلك مع ازدياد قدرة هذه التقنيات على تقليد السلوك البشري وإجراء حوارات طويلة ومعقدة تشبه التفاعل الإنساني الحقيقي.

وقال الدكتور دانييل شانك، الباحث في جامعة ميسوري الأميركية:

'إن قدرة الذكاء الاصطناعي على التصرف كإنسان والدخول في حوارات مطوّلة تفتح فعليًا صندوقًا جديدًا من الشرور'، محذرًا من أن هذه التطبيقات قد تؤدي إلى تحوّل المستخدمين إلى ما يشبه الارتباط العاطفي أو حتى 'العشق الرقمي' لها.

المحادثات الطويلة قد تحوّل الذكاء الاصطناعي إلى رفيق شخصي للمستخدم

في ورقة بحثية نشرتها مجلة 'Trends in Cognitive Sciences' أو 'اتجاهات العلوم المعرفية'، أوضح شانك وفريقه البحثي أن هذه الحميمية المصطنعة تشكل خطرًا متناميًا على العلاقات الإنسانية الطبيعية، حيث يُحتمل أن يتحوّل التطبيق الذكي في نظر المستخدم إلى رفيق يعرف عنه كل شيء، بل يهتم بشؤونه، وهو ما يعزّز الارتباط النفسي غير الصحي.

ظاهرة "الهلوسة" في الذكاء الاصطناعي.. تحذيرات من معلومات مضللة وتأثيرات أخلاقية سلبية

أشار الباحثون إلى أن أحد التهديدات التقنية يتمثل في ما يُعرف بـ'الهلوسة'، وهي ظاهرة معروفة في نماذج الذكاء الاصطناعي التوليدي، حيث تقدم هذه النماذج أحيانًا معلومات خاطئة أو غير دقيقة تبدو مقنعة جدًا.

وأضافوا:

'إذا اعتقدنا أن الذكاء الاصطناعي يهتم بمصلحتنا، فقد نبدأ في الوثوق به بشكل أعمى، بينما قد يقدم لنا نصائح مضللة أو يلفّق الحقائق، بل وقد يشجع سلوكيات غير أخلاقية أو غير قانونية'.

"أوبن أيه آي" تطوّر وظيفة الذاكرة في ChatGPT.. تعميق الألفة الافتراضية يثير القلق

وفي تطور تقني جديد، أعلنت شركة 'OpenAI' المطورة لتقنية ChatGPT، عن تحسين وظيفة 'الذاكرة' في التطبيق، بحيث يمكنه تذكّر المحادثات السابقة مع المستخدمين وتخصيص الردود بناءً على تاريخ التفاعل، مما يعزز ما يشبه 'الألفة الرقمية' التي قد تقوّي هذا النوع من الارتباط العاطفي الخادع.

اقرأ أيضا