تكنولوجيا
أخر الأخبار

يستطيع “قراءة المشاعر”.. جوجل تطلق نموذجًا جديدًا للذكاء الاصطناعي

أطلقت شركة جوجل جيلاً جديداً من نماذجها للذكاء الاصطناعي “باليجيما 2” (PaliGemma 2) يستطيع “قراءة المشاعر” من ملامح وجوه الأشخاص في الصور.

وقالت جوجل في منشور على مدونتها: “يُنتج PaliGemma 2 أوصافاً دقيقة ذات صلة سياقية للصور، متجاوزاً التعرف البسيط على الأشياء لوصف الأفعال، والمشاعر، والسرد العام للمشهد”.

ووفق الشركة، يستند “باليجيما 2” إلى مجموعة نماذج Gemma المفتوحة من جوجل، وتحديداً إلى سلسلة “جيما 2”.

لكن التعرف على المشاعر لا يتاح تلقائياً عند إطلاق النموذج، إذ يحتاج PaliGemma 2 إلى تعديلات دقيقة من أجل تفعيل الميزة. ومع ذلك، أعرب خبراء لموقع “TechCrunch” عن قلقهم حول مدى إمكانية توفير هذه التقنية بشكل مفتوح.

قراءة المشاعر؟

قالت ساندرا واتشر، أستاذة أخلاقيات البيانات والذكاء الاصطناعي في معهد أكسفورد للإنترنت: “هذا الأمر يثير قلقي بشدة. أجد من المقلق افتراض أنه يمكننا قراءة مشاعر الناس. يشبه ذلك طلب النصيحة من كرة سحرية”.

من جهته، يرى مايك كوك، وهو زميل باحث في “كلية كينجز بلندن” والمتخصص في الذكاء الاصطناعي، أن اكتشاف المشاعر “ليس ممكناً في الحالة العامة؛ لأن الناس يختبرون المشاعر بطرق معقدة”.

وأضاف كوك: “بالطبع، نعتقد أنه يمكننا تحديد ما يشعر به الآخرون من خلال النظر إليهم، وقد حاول ذلك العديد من الأشخاص على مر السنين، مثل وكالات التجسس، أو شركات التسويق. أنا متأكد أنه من الممكن اكتشاف بعض العلامات العامة في بعض الحالات، لكن هذا ليس شيئاً يمكننا حله بشكل كامل”.

وتتمثل العواقب المتوقعة في أن أنظمة اكتشاف المشاعر تميل إلى أن تكون غير موثوقة، وتتأثر بتحيزات مصمميها، ففي دراسة أجراها معهد ماساتشوستس للتكنولوجيا عام 2020، أظهر باحثون أن نماذج تحليل الوجوه قد تطور تفضيلات غير مقصودة لبعض التعابير مثل الابتسامة.

وأشارت دراسات حديثة إلى أن نماذج تحليل المشاعر تميل إلى تصنيف الوجوه السوداء بأنها تعبير عن مشاعر سلبية أكثر من الوجوه البيضاء.

معايير جوجل

وأكدت جوجل أنها أجرت “اختبارات موسعة” لتقييم التحيزات الديموغرافية في PaliGemma 2، ووجدت “مستويات منخفضة من سُمية الثقافة واللغة البذيئة” مقارنة بالمقاييس العامة للنماذج المشابهة. ولكن الشركة لم تكشف عن قائمة المعايير التي استخدمتها، ولم توضح أنواع الاختبارات التي أجرتها.

المعيار الوحيد الذي ذكرته جوجل هو معيار FairFace، المتمثل في مجموعة من صور الوجوه لآلاف الأشخاص، حيث أشارت إلى أن PaliGemma 2 حقق نتائج جيدة خلاله.

لكن بعض الباحثين انتقدوا هذا المعيار كأداة لقياس التحيز، لافتين إلى أنه لا يمثل سوى عدد قليل من المجموعات العرقية.

وقالت هايدي خلّاف، كبيرة علماء الذكاء الاصطناعي في معهد AI Now، وهو منظمة غير ربحية تدرس الآثار الاجتماعية للذكاء الاصطناعي إن “تفسير المشاعر مسألة ذات طابع شخصي للغاية، تتجاوز مجرد استخدام المساعدات البصرية، وهي تعتمد بشكل كبير على السياق الشخصي والثقافي. وقد أظهرت الأبحاث أنه لا يمكننا استنتاج المشاعر من ملامح الوجه فقط”.

وأثارت أنظمة اكتشاف المشاعر غضب الجهات التنظيمية والقانونية في الخارج والتي سعت إلى تقييد استخدام هذه التقنية في سياقات عالية المخاطر، حيث يحظر قانون الذكاء الاصطناعي AI Act، وهو التشريع الرئيسي للذكاء الاصطناعي في الاتحاد الأوروبي، المدارس وأرباب العمل من استخدام أنظمة الكشف عن المشاعر.

وتتمثل أكبر المخاوف بشأن النماذج المفتوحة، مثل PaliGemma 2، التي تتوفر عبر العديد من المضيفين بما في ذلك منصة Hugging Face لتطوير الذكاء الاصطناعي، في أنها قد تتعرض للإساءة، أو الاستغلال، مما قد يؤدي إلى أضرار في العالم الواقعي.

وأضافت هايدي خلاف: “إذا كان ما يُسمّى بالتعرف على المشاعر مبني على افتراضات غير علمية، فإن هناك تداعيات كبيرة على كيفية استخدام هذه القدرة لزيادة وتدعيم التمييز ضد الفئات المهمشة، مثلما في تطبيقات الشرطة، والموارد البشرية، وإدارة الحدود، وما إلى ذلك”.

وعند سؤاله عن مخاطر إطلاق PaliGemma 2 للجمهور، قال المتحدث باسم جوجل إن الشركة تدعم اختباراتها المتعلقة بـ”الأضرار التمثيلية” التي تخص الإجابة علن الأسئلة البصرية، وكتابة أوصاف الصور.

وأردف بالقول: “أجرينا تقييمات قوية لنماذج PaliGemma 2 من حيث الأخلاقيات والسلامة، بما في ذلك سلامة الأطفال وسلامة المحتوى”.

زر الذهاب إلى الأعلى