مع اقتراب عيد الحب، يجدر بنا طرح سؤال غير مريح: ماذا يحدث عندما لا يأتي الشعور بأنك "مرئي ومسموع" من شريك، بل من آلة؟ مصممة بشخصيات مميزة ونبرة إيجابية، يمكن لروبوتات الدردشة المرافقة القائمة على الذكاء الاصطناعي أن تطمس الحدود العاطفية وتعزز الارتباط الرومانسي. على الرغم من أن هذا قد يبدو غير ضار، إلا أنه يثير مخاوف لدى الأفراد والمؤسسات التي تسعى لمنع الاعتماد العاطفي والتلاعب وتسريب البيانات.
مع كون الوحدة واقعًا دائمًا للكثيرين، شهدت السنوات الأخيرة ارتفاعًا هائلاً في روبوتات الدردشة المرافقة القائمة على الذكاء الاصطناعي.
تعلق آنا كولارد، نائب الرئيس الأول لاستراتيجية المحتوى ومستشار CISO في KnowBe4 أفريقيا: "على عكس روبوتات الدردشة ذات الأغراض العامة، تذهب تطبيقات مرافقة الذكاء الاصطناعي مثل Replika و Character.AI خطوة أبعد من خلال تقديم شخصيات مخصصة - من الأصدقاء والشركاء الرومانسيين إلى شخصيات خيالية - مصممة لتبدو إنسانية بشكل واضح."
كان النمو في قطاع تطبيقات مرافقة الذكاء الاصطناعي سريعًا: تم تسجيل 60 مليون عملية تنزيل جديدة في النصف الأول من عام 2025 وحده، بزيادة 88٪ على أساس سنوي.
يضم السوق الآن 337 تطبيقًا مدرًا للإيرادات في جميع أنحاء العالم، مع إطلاق أكثر من ثلثها العام الماضي وحده.
مخاطر تأثير ELIZA
تقول كولارد إن العديد من المستخدمين ينخدعون بالشعور بأنهم آمنون في مشاركة المحادثات الحميمة مع آلة - ما يسمى بتأثير ELIZA.
تخلق هذه الرابطة النفسية ثغرة أمنية كبيرة. عندما ينظر المستخدمون إلى الذكاء الاصطناعي على أنه "صديق" أو "شريك"، فمن المرجح أن يشاركوا معلومات حساسة - تتراوح من المظالم الشخصية والمخاوف الصحية إلى البيانات المؤسسية الخاصة.
في سياق تنظيمي، هذا مثال واضح على كيف يمكن للمحفزات العاطفية أن تتجاوز الوعي الأمني التقليدي.
مخاطر تسريب البيانات
التهديد الأكثر إلحاحًا للمؤسسات هو تسريب المعلومات الحساسة. نظرًا لأن هذه الروبوتات غالبًا ما يتم تطويرها بواسطة شركات ناشئة أصغر ومتخصصة ذات معايير حماية بيانات مشكوك فيها، فإن المعلومات المشتركة مع الروبوت نادرًا ما تكون خاصة. والمثال على ذلك هو المثال الأخير للعبة ذكاء اصطناعي كشفت عن 50,000 سجل من محادثاتها مع الأطفال. حرفيًا، يمكن لأي شخص لديه حساب Gmail عرض هذه المحادثات الخاصة للأطفال.
غالبًا ما تكون سياسات الخصوصية لهذه التطبيقات غامضة. في بعض الحالات، تُستخدم سجلات الدردشة لتدريب النماذج بشكل أكبر أو يتم تخزينها في قواعد بيانات غير آمنة. تعلق كولارد: "الحذر مطلوب بالتأكيد. ما يبدو وكأنه تفاعل خاص ومنخفض المخاطر يمكن أن يحتوي على معلومات حساسة أو استراتيجية أو ضغوط مالية أو ضغوط شخصية أو تفاصيل سياقية يمكن للخصوم استخدامها كسلاح."
بمجرد التسريب، تعتقد أن البيانات يمكن، على سبيل المثال، أن تصبح وقودًا لهجمات الاحتيال الإلكتروني أو الابتزاز أو انتحال الشخصية المخصصة للغاية. "من الناحية الأمنية، هذا مثال نموذجي على كيف أن السلوك الشخصي والمخاطر المؤسسية لم يعد من الممكن فصلهما."
تشمل هذه المخاطر مراقبة المشرفين البشريين للمحادثات لأغراض التدريب أو مراقبة الجودة أو حماية، بالإضافة إلى مشاركة المستخدمين للمحادثات عن طريق الخطأ عبر رابط عام، مما يعني أن أي شخص لديه حق الوصول إلى هذا الرابط يمكنه قراءته. تحذر كولارد: "لقد رأينا بالفعل أمثلة في قطاع التكنولوجيا حول كيفية ظهور البيانات المكشوفة بشكل غير متوقع."
بالإضافة إلى ذلك، قد تُلزم المؤسسات قانونيًا بالكشف عن البيانات إذا كان التطبيق متورطًا في خرق أو تحقيق قانوني. بالنسبة للمسؤول التنفيذي أو المطور، فإن مشاركة جلسات "التنفيس" حول مشروع سري أو عميل صعب يمكن أن يؤدي عن غير قصد إلى الكشف عن بيانات تنظيمية حساسة.
فجوة السياسة
تسلط هذه المخاطر الضوء على فجوة في السياسة داخل مكان العمل الحديث. في حين أن معظم المؤسسات لديها إرشادات واضحة بشأن العلاقات بين الزملاء، فإن القليل منها قد نظر في الآثار المترتبة على الوصول إلى روبوتات المواعدة على أجهزة العمل أو عبر الشبكات المؤسسية.
تتطلب إدارة هذه المخاطر الانتقال من الوعي البسيط إلى نهج قوي لإدارة المخاطر البشرية (HRM). يتضمن ذلك وضع طبقات من سياسات الاستخدام الواضحة مع حواجز حماية تقنية - مثل أدوات اكتشاف Shadow AI - لتزويد فرق تكنولوجيا المعلومات برؤية حول وكلاء الذكاء الاصطناعي غير المعتمدين الذين يتفاعلون مع بيئة بياناتهم. لا يكفي مجرد مطالبة الموظفين بتوخي الحذر؛ يجب أن تكون لدى المؤسسات الأنظمة المعمول بها لإدارة التقاطع بين العواطف البشرية والتفاعل الآلي.
مستقبل الهندسة الاجتماعية
هل يمكننا أن نرى القراصنة يستهدفون الأفراد الوحيدين بروبوتات المغازلة المنتجة بكميات كبيرة؟ تعتقد كولارد أن هذا يحدث بالفعل.
تعلق: "لطالما تم توسيع نطاق الهندسة الاجتماعية من خلال استغلال العواطف والإلحاح والخوف والفضول والحب والانجذاب. يقوم الذكاء الاصطناعي ببساطة بأتمتة ذلك على نطاق واسع. ما يقلقني أكثر ليس التكنولوجيا نفسها، بل كيف تمكّن أولئك الذين لديهم نوايا خبيثة من عكس الحميمية البشرية بشكل مقنع، على سبيل المثال المحتالين الرومانسيين المنهجيين."
وفقًا لكولارد، في غضون سنوات، تطورت عمليات الاحتيال من نوع "عزيزي السيد/السيدة" إلى التلاعب الذكي عاطفيًا. "والمشكلة ليست في الروبوتات نفسها، بل في الاستخدام المتعمد لها من قبل المحتالين،" تقول.
تذكر مثال روبوت LoveGPT غير القانوني الذي يساعد المحتالين على قول الأشياء الصحيحة المحفزة نفسيًا لخلق الاعتماد وتنشيط العواطف في ضحاياهم. "كل ما يحتاجه المحتالون هو النسخ واللصق أو حتى مجرد أتمتة المحادثات،" تذكر.
ماذا يمكن فعله لمنع استهداف المستخدمين؟ كالعادة، يبقى الدفاع بشريًا، تؤكد كولارد. "في النهاية، لا يمكن لأي روبوت دردشة، مهما كان منتبهًا أو طليقًا عاطفيًا، أن يحل محل الاتصال الإنساني الحقيقي،" تشدد.
إذا بدأ التفاعل مع روبوت الدردشة يبدو بديلاً عاطفيًا أو سريًا أو يصعب الابتعاد عنه، فهي تعتقد أن هذه إشارة للتوقف والتواصل مع شخص موثوق به أو محترف. "قد تكون التكنولوجيا جزءًا من الحياة الحديثة، لكن هذا يعني أننا بحاجة إلى تعزيز مهارات اليقظة الرقمية لدينا لتعلم كيفية التعرف على التلاعب أو الاعتماد المستحث. أخيرًا، عندما يتعلق الأمر بالوحدة والضعف والحب، يبقى الدفاع الأكثر أمانًا بشريًا بلا شك،" تختتم.

