أطلقت شركة جوجل الجيل الجديد من نماذج الذكاء الاصطناعي "باليجيما 2" (PaliGemma 2)، الذي يتمتع بقدرة على "قراءة المشاعر" من خلال ملامح وجوه الأشخاص في الصور.
وفقًا للمدونة الرسمية للشركة، يتيح النموذج إنتاج أوصاف دقيقة ومترابطة للسياق في الصور، متجاوزًا التعرف البسيط على الأشياء إلى وصف الأفعال والمشاعر والسياق العام للمشهد.
يعتمد "باليجيما 2" على نماذج Gemma المفتوحة من جوجل، خاصة سلسلة "جيما 2". لكن هذه التقنية لا تكون مفعلة بشكل تلقائي، إذ يتطلب تفعيلها تعديلات دقيقة.
ومع ذلك، أثار الخبراء مخاوف بشأن إمكانية جعل هذه التقنية مفتوحة للجمهور. حيث عبَّرت ساندرا واتشر، أستاذة أخلاقيات البيانات والذكاء الاصطناعي في معهد أكسفورد للإنترنت، عن قلقها من فكرة "قراءة مشاعر الناس"، معتبرةً أن هذا يشبه الاستعانة بكرة سحرية.
بدوره، قال مايك كوك، الباحث في الذكاء الاصطناعي في "كلية كينغز بلندن"، إن تحديد المشاعر من خلال الوجوه أمر معقد، مشيرًا إلى أن المشاعر قد تُختبر بطرق مختلفة ومعقدة. وأوضح أن تحديد مشاعر الأشخاص عبر الوجوه ليس أمرًا حاسمًا أو دقيقًا في جميع الحالات.
وتثير هذه التقنيات قلقًا بشأن موثوقيتها، خاصةً في ضوء الدراسات التي أظهرت تحيزات في نماذج تحليل الوجوه، مثل تفضيل تعبيرات الابتسامة أو تصنيف الوجوه السوداء على أنها تعبير عن مشاعر سلبية أكثر من الوجوه البيضاء. على الرغم من إجراء جوجل اختبارات موسعة لتقييم التحيزات الديموغرافية، لم تكشف الشركة عن تفاصيل دقيقة حول هذه الاختبارات أو المعايير المستخدمة.
انتقد بعض الباحثين معيار FairFace، الذي اعتمدته جوجل، معتبرين أنه لا يعكس تنوعًا عرقيًا كافيًا. وأكدت هايدي خلاف، كبيرة علماء الذكاء الاصطناعي في معهد AI Now، أن تفسير المشاعر أمر شخصي للغاية ويعتمد بشكل كبير على السياق الثقافي، معتبرة أن استخدام ملامح الوجه فقط لا يمكن أن يكون دليلاً موثوقًا للمشاعر.
وفيما يتعلق بالمخاوف التنظيمية، حذر الخبراء من أن استخدام هذه التقنية في مجالات حساسة، مثل الشرطة أو الموارد البشرية، قد يؤدي إلى تمييز ضد الفئات المهمشة. وأوضح المتحدث باسم جوجل أن الشركة قد أجرت اختبارات قوية تتعلق بالأخلاقيات والسلامة، بما في ذلك سلامة الأطفال والمحتوى.