ما مخاطر تقنيات الذكاء الاصطناعي إذا وصلت للأيدي الخاطئة؟
04 يونيو 2024ذكرت رويترز أن إدارة الرئيس الأميركي جو بايدن تستعد لفتح جبهة جديدة في جهودها لحماية الذكاء الاصطناعي المطور في الولايات المتحدة من الصين وروسيا عبر خطط أولية لتأمين أكثر نماذجه تطورا.
ويخشى باحثون من الحكومة والقطاع الخاص من أن أعداء واشنطن قد يستخدمون هذه النماذج، التي تحلل كميات هائلة من النصوص والصور لتلخيص المعلومات وتوليد المحتوى، في شن هجمات رقمية شديدة أو حتى في تصنيع أسلحة بيولوجية ناجعة.
ماهي أبرز التهديدات التي يشكلها الذكاء الاصطناعي:
التزييف العميق والتضليل المعلوماتي
- يظهر التزييف العميق على مواقع التواصل الاجتماعي، فيخلط بين الحقيقة والخيال في عالم السياسات الأميركية القائم على الاستقطاب.
- التزييف العميق هو مقاطع فيديو تبدو واقعية لكنها غير حقيقية أنشأتها خوارزميات الذكاء الاصطناعي المدربة على مقاطع فيديو كثيرة عبر الإنترنت.
- على الرغم من توفر هذه الوسائط المولدة رقميا منذ عدة سنوات، فقد استفحلت قدراتها على مدى العام المنصرم بفعل مجموعة من أدوات "الذكاء الاصطناعي التوليدي" الجديدة مثل أداة (ميد جيرني) التي تجعل إنشاء مقاطع تزييف عميق مقنعة أمرا يسيرا ورخيص التكلفة.
- قال باحثون في تقرير بمارس إن من الممكن استخدام شركات مثل (أوبن إيه.آي) و(مايكروسوفت) أدوات إنشاء الصور التي تعمل بالذكاء الاصطناعي في توليد صور قد تروّج لمعلومات مضللة ذات صلة بالانتخابات وبالتصويت، وذلك على الرغم من وجود سياسات في كلتا الشركتين لمكافحة إنشاء المحتوى المضلل.
- تستغل بعض حملات التضليل المعلوماتي بكل بساطة قدرة الذكاء الاصطناعي على محاكاة المقالات الإخبارية الحقيقية كوسيلة لنشر المعلومات الزائفة.
- قالت وزارة الأمن الداخلي الأميركية في تقييمها للتهديدات الداخلية لعام 2024 إنه في العام الماضي على سبيل المثال روّج موقع إخباري صيني يستخدم منصة ذكاء اصطناعي توليدي ادعاء زائفا كان متداولا في وقت سابق ومفاده أن الولايات المتحدة تدير مختبرا في كازاخستان لتصنيع أسلحة بيولوجية لتستخدمها في مواجهة الصين.
- ذكر جيك سوليفان مستشار الأمن القومي بالبيت الأبيض خلال فعالية للذكاء الاصطناعي في واشنطن يوم الأربعاء، أن المشكلة ليس لها حل سهل لأنها تجمع بين قدرة الذكاء الاصطناعي و"نية جهات رسمية وغير رسمية لاستخدام التضليل المعلوماتي على نطاق كبير في تخريب الديمقراطيات وترويج الدعاية وتشكيل الوعي في العالم".
أسلحة بيولوجية
• يتزايد قلق مجتمع المخابرات ومراكز البحوث والسلك الأكاديمي في الولايات المتحدة إزاء مخاطر تشكلها جهات أجنبية عدائية تملك حق الوصول إلى قدرات الذكاء الاصطناعي المتطورة.
• أشار باحثون في شركة (غريفون ساينتيفيك) ومؤسسة (راند) البحثية إلى أن نماذج الذكاء الاصطناعي المتطورة يمكنها تقديم معلومات من شأنها المساعدة في تصنيع أسلحة بيولوجية.
• درست "غريفون" كيفية استخدام جهات عدائية النماذج اللغوية الكبيرة في إلحاق الضرر في مجال علوم الحياة، وخلصت إلى أنها "قادرة على تقديم معلومات قد تدعم جهة شريرة في إنشاء سلاح بيولوجي من خلال تقديم معلومات مفيدة ودقيقة وتفصيلية في كل خطوة من خطوات هذا المسار".
• النماذج اللغوية الكبيرة هي برامج كمبيوتر تستعين بمجموعات ضخمة من النصوص لتوليد ردود على الاستفسارات.
• خلصت "غريفون" إلى أن أي نموذج لغوي كبير قد يوفر على سبيل المثال معلومات يصل مستواها إلى ما بعد مرحلة الدكتوراه لحل مشكلات تطرأ خلال العمل على فيروس قادر على نشر وباء.
• أظهرت مؤسسة (راند) البحثية أن النماذج اللغوية الكبيرة قد تسهم في التخطيط لهجوم بيولوجي وتنفيذه، وخلصت إلى أن أي نموذج لغوي كبير قد يقترح، على سبيل المثال، أساليب لنثر مادة البوتوكس السامة في الهواء.
أسلحة رقمية
- أفادت وزارة الأمن الداخلي الأميركية في تقييمها للتهديدات الداخلية لعام 2024 بأن الجهات الرقمية من المرجح أن تستخدم الذكاء الاصطناعي في "تطوير أدوات جديدة لتمكين شن هجمات رقمية أوسع نطاقا وأكثر سرعة وكفاءة ومراوغة" على البنية التحتية الحساسة، بما في ذلك خطوط أنابيب النفط والغاز والسكك الحديدية.
- أوضحت الوزارة أن الصين وجهات معادية أخرى تطور تكنولوجيا ذكاء اصطناعي من شأنها تقويض الدفاعات الرقمية الأميركية، بما في ذلك برامج الذكاء الاصطناعي التوليدي التي تدعم هجمات البرمجيات الخبيثة.
- بينت "مايكروسوفت" في تقرير بفبراير أنها تعقبت جماعات تسلل إلكتروني تابعة للحكومتين الصينية والكورية الشمالية، بالإضافة إلى المخابرات الحربية الروسية والحرس الثوري الإيراني، في ظل محاولتها إحكام هجماتها عبر الإنترنت بالاستعانة بالنماذج اللغوية الكبيرة.