عنوان الخبر

2024-12-17 16:55

الذكاء الاصطناعي بين الانفتاح والغموض: هل الأمان في الشفافية أم في السرية؟

تخيّل عالماً تُفتح فيه أبواب الابتكار للجميع بحرية، وعالماً آخر تُخفي فيه الأسرار خلف أسوار محكمة. هذه ليست مجرد حبكة خيال علمي، بل هي واقع يعيشه الذكاء الاصطناعي اليوم. تتراوح التطورات بين نماذج مفتوحة تشجع الشفافية وأخرى مغلقة تفضل السرية، مما يرسم مستقبل التكنولوجيا. ورغم أهمية الشفافية في أبحاث الذكاء الاصطناعي، إلا أن تقدم التقنيات أثار مخاوف من المخاطر المحتملة عند إطلاق نماذج متقدمة. شركات مثل "أوبن إيه آي" تُبقي نماذجها مغلقة لأسباب تجارية، بينما تتبنى شركات أخرى نهجاً مختلفاً؛ فمثلاً "غوغل ديب مايند" لم تُطلق نموذج "شن شيلا" بالكامل، و"جي بي تي فور أو" يتيح وصولاً محدوداً، في حين تقدّم "ميتا" نموذج "لاما" مفتوحاً مع بعض القيود. مع تزايد استخدام الذكاء الاصطناعي، تتعاظم التساؤلات حول الشفافية والمخاطر. وفقاً لمنظمة "إيبوك إيه آي"، تُعرّف النماذج المفتوحة بأنها التي تتيح تحميل الأوزان، بينما المغلقة لا تُتاح إلا من خلال خدمات أو واجهات برمجية. الاختلاف بين النموذجين يظهر في الأوزان القابلة للتنزيل والتراخيص المصاحبة، التي قد تكون مرنة أو تقيّد بعض الاستخدامات، كالحظر التجاري أو السلوك الضار. بالمقابل، تُتاح النماذج المغلقة فقط عبر منتجات محددة. أفضل النماذج المغلقة مثل "شات جي بي تي" و"كلود" تأتي بشروط تحد من الاستخدام الضار، بعكس النماذج المفتوحة التي يمكن تنزيلها وتعديلها بحرية. دراسة "إيبوك إيه آي" كشفت أن النماذج المفتوحة متأخرة عن المغلقة بعام تقريباً؛ مثلاً، نموذج "لاما 3.1 405 بي" استغرق 16 شهراً ليعادل النسخة الأولى من "جي بي تي 4". في ظل هذه الفجوة، يواجه صانعو السياسات تحديات كبيرة، خاصة مع مخاوف من استخدام هذه التقنيات في أضرار مثل هندسة الأوبئة والهجمات الإلكترونية. الدراسة قيّمت أداء النماذج باستخدام معايير تقنية وكفاءة الحوسبة، وأظهرت أن بعض النماذج المفتوحة تنافس المغلقة بكفاءة أفضل. ورغم اعتبار "لاما" مفتوح المصدر، إلا أنه لا يفي بتعريف "مبادرة المصدر المفتوح" الجديد، الذي يشمل الأكواد وبيانات التدريب. "ميتا" تتيح أوزان النموذج فقط، مع فرض سياسة استخدام تقيد الأنشطة الضارة. تقول "ميتا" إنه لا يوجد تعريف واحد للمصدر المفتوح في الذكاء الاصطناعي، وإن التطور السريع للتقنيات يجعل التعريفات التقليدية غير كافية. ومع ذلك، تساهم النماذج المفتوحة في تعزيز الابتكار، خاصة في المجتمعات الأكاديمية والدول ذات الموارد المحدودة. بحسب "تايم"، تتيح الشفافية في النماذج المفتوحة إمكانية مساءلتها وتصحيح التحيزات، مثلما حدث مع "ستيبل ديفيوجن 2"، بعكس النماذج المغلقة كـ"دال إي". لكن هذا الانفتاح يأتي بمخاطر؛ إذ قد تُستخدم النماذج المفتوحة لأغراض ضارة أو عسكرية، كما حدث مع مؤسسات صينية طورت أداة عسكرية باستخدام نسخة من "لاما". النماذج المغلقة.. أمان مع غياب الشفافية وفقًا لتقرير نشرته "تايم"، تواجه النماذج المغلقة تحدياتها الخاصة؛ فعلى الرغم من أمانها النسبي بسبب التحكم الكامل للمطورين في الوصول إليها، إلا أنها تعاني من غموض كبير. إذ لا يمكن للجهات الخارجية فحص بيانات التدريب للكشف عن أي تحيزات أو مواد محمية بحقوق النشر أو مشكلات أخرى. لذا، قد تتجنب بعض المؤسسات التي تعالج بيانات حساسة استخدام هذه النماذج المغلقة خشية على الخصوصية. ورغم وجود حواجز تمنع إساءة الاستخدام، فإن البعض تمكن من تجاوز هذه الحمايات. حاليًا، تعتمد سلامة النماذج المغلقة بشكل أساسي على الشركات الخاصة، بينما تلعب مؤسسات مثل "معهد أمان الذكاء الاصطناعي الأميركي" (AISI) دورًا متناميًا في اختبار الأمان قبل الإطلاق. ففي أغسطس الماضي، أبرم المعهد اتفاقية مع شركة "أنثروبيك" لتعزيز التعاون في أبحاث الأمان والتقييم. تحديات الحوكمة للنماذج المفتوحة تواجه النماذج المفتوحة مشكلات حوكمة خاصة، لا سيما مع المخاطر المستقبلية مثل تمكين الإرهاب البيولوجي أو تسهيل الهجمات السيبرانية بسبب غياب السيطرة المركزية. ويتوقف رد فعل صانعي السياسات على تطور الفارق بين النماذج المفتوحة والمغلقة. تقول سيغر: "إذا زاد الفارق، فلن يكون القلق كبيرًا بشأن أمان الأنظمة المفتوحة؛ لأن المخاطر ستبدأ مع النماذج المغلقة الأسهل تنظيمًا." أما إذا تقلص الفارق، فسنحتاج إلى تنظيم تطوير النماذج المفتوحة، وهو أمر معقد بسبب عدم وجود جهة مركزية تتحكم بها. وتعتمد شركات مثل "أوبن إيه آي" و"أنثروبيك" على بيع الوصول إلى نماذجها كجزء أساسي من أعمالها. في المقابل، صرح مارك زوكربيرغ، الرئيس التنفيذي لـ"ميتا"، في يوليو الماضي: "بيع الوصول ليس جزءًا من أعمالنا. نتوقع أن تصبح نماذج 'لاما' الأكثر تطورًا، وهي بالفعل تتفوق في الانفتاح وقابلية التعديل." قدرات الذكاء الاصطناعي قياس قدرات أنظمة الذكاء الاصطناعي معقد. يوضح جرنيت أن "القدرات ليست مصطلحًا محددًا"، مما يصعب النقاش بشأنها. ويضيف أن النماذج المفتوحة قد تُكيف لمهام متنوعة وتتجاوز المغلقة في مجالات معينة عند تدريبها بشكل مخصص. مستقبل التعقيدات القادمة يرى إيثان موليك، أستاذ بكلية "وارتون"، أنه حتى مع تباطؤ التقدم، سيستغرق دمج الذكاء الاصطناعي بالكامل سنوات. ومع تطوير ميزات جديدة بوتيرة سريعة، مثل قدرة نموذج "أنثروبيك" على التحكم في الحواسيب، ستزداد تعقيدات الحوكمة. يؤكد سيغر على أهمية تحديد المخاطر بدقة، قائلًا: "علينا وضع نماذج تهديد واضحة توضح نوع الضرر المحتمل، وكيف يمكن أن يؤدي الانفتاح إلى هذا الضرر، ومن ثم تحديد أفضل نقطة للتدخل." التقدم أم المخاطرة؟ في خضم هذا التطور، تستحضر مقولة هيلين كيلر: "الحياة إما مغامرة جريئة أو لا شيء." فالخوف من المخاطر لا يحمي على المدى الطويل، لكن الانفتاح الكامل أيضًا يحمل مخاطره. إذًا، كيف نحدد التوازن بين الابتكار والمخاطر؟

التعليقات

لا توجد تعليقات حتى الآن. كن أول من يعلق!

يرجى تسجيل الدخول لإضافة تعليق.