روسيا اليوم - 12/1/2025 5:49:15 AM - GMT (+3 )
تُثير فكرة تواصل أحد الأحباء معنا باستخدام الذكاء الاصطناعي قلقنا لأن الأصالة معيار للتفاعلات البشرية. وفي بحثي حول المشاركة المجتمعية، أناقش باستمرار الأصالة والذكاء العاطفي - أي قدرة المرء على قراءة مشاعر الآخرين والتعامل معها. وهاتان السمتان لا غنى عنهما في بناء علاقات وتعاون متينة قائمة على الثقة مع الناس، وهما من السمات القليلة المتبقية التي تفصل الإدراك البشري عن إدراك الذكاء الاصطناعي.
هناك عبارة تصف "الاشمئزاز" الذي نشعر به عندما نشك في أن أحدهم يستخدم الذكاء الاصطناعي معنا في نقاشات شخصية وهي متلازمة كابغراس. وقد تم إطلاق هذه التسمية على هذه الحالة النادرة، في عشرينيات القرن الماضي، تيمنًا بالطبيب النفسي الفرنسي جوزيف كابغراس، وهي تشير إلى خوفنا الداخلي العميق من أن يكون شخص مألوف "محتالًا". وفي هذه الحالة يكون هذا الشخص هو مساعد الذكاء الاصطناعي الموجود على هاتفك النقال.
لقد كرّس أقطاب الذكاء الاصطناعي، في السنوات الأخيرة، جهودًا كبيرة للبحث والتطوير لمعالجة فجوة الأصالة فيه. ويأملون في القضاء على ما يُعرف بـ"وادي الغرابة" المخيف، وهو تأثير لطالما جعل هذه التقنية تبدو أشبه ببدعة من الخيال العلمي منها أداة عمليةً في الحياة اليومية. ولتحقيق هذه الغاية، نجحت شركات الذكاء الاصطناعي العملاقة في تغيير مفهوم الأصالة البشرية في التعليم والفن وخدمة العملاء. وعلينا الآن أن نواجه فكرة أن الذكاء الاصطناعي بدأ يُضعف علاقاتنا وتواصلنا الشخصي مع بعضنا البعض، وربما يُضعف معناه.
إن مخاوفنا بشأن هذه المسألة الأوسع نطاقًا كبيرة بالفعل؛ ففي استطلاع رأي أجرته شركة يوغوف في مارس، أبدى 80% من الأمريكيين قلقهم الشديد أو المحدود من أن يؤدي الذكاء الاصطناعي إلى التلاعب بالسلوك البشري. ويأتي ذلك في ظل تراجع ثقة بعضنا ببعض عبر الأجيال؛ حيث أفاد ثلث الأمريكيين فقط في عام 2024 بأنهم يشعرون بأن معظم الناس جديرون بالثقة، وهو انخفاض عن النصف تقريبًا في عام 1984 عندما بلغت أرقام الاستطلاع ذروتها. (كمثال سريع، فإن هذا التراجع في الثقة أقرب إلى وصف "أورويلي").
ومع تزايد اعتمادنا على الذكاء الاصطناعي كوسيلة تواصل بديلة تنحدر الثقة الشخصية لدينا، ليس فقط في رسائل البريد الإلكتروني والتقارير المهنية، بل أيضًا في ملفاتنا الشخصية على مواقع المواعدة ورسائل الاعتذار للأحباء وتهنئة أعياد الميلاد. كما أن الصور ومقاطع الفيديو المُولّدة بواسطة الذكاء الاصطناعي، والتي تزداد تطورًا، قد تجعلنا نشك في الوسائط الشخصية التي يشاركها معنا الأصدقاء والعائلة؛ فتخيل، على سبيل المثال، أن نصدق أن فيديو لأحد أقاربنا على إنستغرام، وهو يصور عطلته في باريس، مُزوّر بواسطة مُولّد فيديو ذكي سلس مثل Sora.
في الواقع قد يستمتع الناس باستخدام الذكاء الاصطناعي كأداة كتابة، إلا أنهم لا يرغبون في أن يكونوا الطرف المتلقي. وقد وجد الباحثون في دراسات أُجريت في الولايات المتحدة والمملكة المتحدة أن معظم الناس يعتبرون الاستخدام غير المعلن للذكاء الاصطناعي في الرسائل الشخصية غير لائق، وعندما يُفصح الناس عن استخدامهم للذكاء الاصطناعي، تقلّ ثقتهم بهم.
أفضل نهج لدينا للتعامل مع تسلل الذكاء الاصطناعي إلى علاقاتنا الشخصية ليس بناء حواجز لمنعه، بل أن نكون أكثر وعيًا بمواعيد استخدامه وأسبابه. فنحن نحتاج إلى أدوات مصادقة تُخبر الناس بما يُنتجه الذكاء الاصطناعي وما لا يُنتجه، إلى جانب معرفة العلامات الدالة على استخدامه،. ويمكن أن يتراوح هذا بين وضع علامات مائية على محتوى الذكاء الاصطناعي وصولًا إلى أدوات أكثر تعقيدًا مثل تتبع المصدر التشفيري، والذي يتضمن إنشاء بيانات وصفية، أو "مسارات بيانات"، تُمكّن المستخدمين النهائيين من معرفة كيفية وزمان ومكان إنتاج المحتوى. لكن هذه الأساليب ليست معصومة من الخطأ، إذ يُمكن القول إن جهود إزالة علامات الذكاء الاصطناعي وتدمير بياناته الوصفية تُنافس جهود إنشائها ذاتها.
ولطالما دافع خبراء أخلاقيات الذكاء الاصطناعي، مثلي، عن المصادقة، إلا أن المشرّعين في الولايات المتحدة لم يدعموها دعمًا جادًا حتى الآن. كما أن قادة الذكاء الاصطناعي، مثل سام ألتمان، الرئيس التنفيذي لشركة Open AI (مطوّرة Chat GPT)، كانوا متحفظين في دعمها. ويعود ذلك في الغالب إلى إدراكهم أن عامل الجذب الرئيسي للذكاء الاصطناعي لدى الكثيرين هو شعوره بأنه "حقيقي".
إن المصادقة تُبدد هذا الوهم، إضافةً إلى ذلك، فإن المصادقة، بتقييدها لكيفية عرضنا للمحتوى، تُثير بعض التساؤلات الشائكة حول حرية التعبير. ومع ذلك، ينبغي أن تتفوق حاجة المجتمع إلى الشفافية على ذلك. وفي نهاية المطاف، يمكن أن يُسهم الالتزام السياسي الأعمق بالمصادقة في تبديد انعدام ثقة الجمهور الواسع بشركات الذكاء الاصطناعي، ويُسهّل تعزيز الشعور بالارتياح تجاه دمج الذكاء الاصطناعي في حياتنا.
لقد بدأت إدارة بايدن في عام 2024 بإلزام الوكالات الفيدرالية بالكشف علنًا عن استخدامها للذكاء الاصطناعي، لكن هذه الوكالات لا تتبنى حالياً خطة عمل الرئيس دونالد ترامب للذكاء الاصطناعي، تماشيًا مع معارضة إدارته العامة لمبادرات الشفافية، هذا النهج.
وفي النهاية ينبغي على الكونغرس إلزام منصات الذكاء الاصطناعي - مثل تلك التي تقدمها Open AI وGoogle وMicrosoft وApple - بدمج تتبع المصدر وتزويد المستخدمين بطريقة سلسة لتحديد ما إذا كان محتوى معين، مثل مقطع فيديو أو أغنية أو حتى رسالة نصية، قد تم إنتاجه بواسطة الذكاء الاصطناعي.
إن هذه القيود ليست مثالية، لكنها قد تجعل من ينوي استخدام الذكاء الاصطناعي بطريقة خادعة أو تخريبية يفكر مليًا. وقد تساعدنا هذه الحواجز في الحفاظ على حياة جزء صغير على الأقل من الناس خالية تمامًا من الذكاء الاصطناعي - بافتراض أن هذا ما نريده بالفعل.
المصدر: Newsweek
المقالة تعبر فقط عن رأي الصحيفة أو الكاتب
إقرأ المزيد


