أفادت وكالة رويترز أن مؤسسات بارزة مرتبطة بالجيش الصيني طوّرت أدوات تعتمد على الذكاء الاصطناعي لأغراض عسكرية، باستخدام نماذج "لاما" المفتوحة المصدر التي توفرها شركة ميتا.
وذكرت الوكالة أن هذا التطوير جاء بعد نشر بحث في يونيو الماضي، أعده ستة باحثين من ثلاث مؤسسات صينية، تناولوا فيه كيفية استخدام نموذج أولي من "لاما" لتطوير أداة تُعرف باسم "ChatBIT". وقد اعتمد الباحثون على نموذج "Llama 2 13B" لإنشاء أداة ذكاء اصطناعي مخصصة للسياق العسكري، مع معايير تجمع بين تحليل البيانات الاستخباراتية وتقديم معلومات موثوقة لدعم القرارات العملياتية. وأشارت الورقة البحثية إلى أن "ChatBIT" تم تصميمها للتفاعل وإجابة الأسئلة في سياقات عسكرية.
وبيّنت الأداة "ChatBIT" أداءً مميزًا مقاربًا بنسبة 90% لإمكانيات نموذج GPT-4 الشهير، إلا أن الباحثين لم يوضحوا تفاصيل قياسهم لأداء الأداة، كما لم يذكروا فيما إذا كانت قد دخلت حيز الاستخدام العملي بعد.
وتبقى القدرات التفصيلية لـ "ChatBIT" غير معروفة تمامًا، حيث يعتمد هذا النموذج على مجموعة محدودة من 100 ألف سجل حواري عسكري، وهي كمية صغيرة نسبيًا مقارنة بالنماذج الكبيرة الأخرى. وعبرت جويل بينو، نائبة رئيس أبحاث الذكاء الاصطناعي في ميتا، عن شكوكها حول فاعلية الأداة، قائلة: "هذه الكمية تمثل جزءًا ضئيلًا جدًا مقارنة بالنماذج التي يتم تدريبها على تريليونات الكلمات، مما يدفع للتساؤل عن مدى تميز القدرات التي تمكنوا من تحقيقها".
وعلى الرغم من أن ميتا تشجع الانفتاح على نماذج الذكاء الاصطناعي الخاصة بها، إلا أنها تضع بعض القيود على الاستخدامات العسكرية، حيث تفرض شروطًا على الخدمات ذات الاستخدام الواسع وتطلب ترخيصًا خاصًا إذا تجاوز عدد المستخدمين 700 مليون. وتمنع ميتا استخدام نماذجها في التطبيقات العسكرية، أو في مجالات الحروب والصناعات النووية أو التجسس.
وفي سياق متصل، أكدت مولي مونتغمري، مديرة السياسات العامة في ميتا، أن نماذج ميتا المفتوحة المصدر تجعل من الصعب مراقبة الامتثال لشروط الاستخدام، وأوضحت في حديثها لرويترز: "أي استخدام لنماذجنا من قبل جيش التحرير الشعبي الصيني غير مصرح به، ويخالف سياسة الاستخدام المقبول لدينا".