ميتا تطلق نظارات ذكية جديدة مع مساعد افتراضي يعمل بالذكاء الاصطناعي

بدأت ميتا هذا الأسبوع تنفيذ تجربة صغيرة في الولايات المتحدة لمنتج ذكاء اصطناعي جديد متعدد الوسائط، والذي تم تطويره ليعمل عبر نظارتها الذكية بالتعاون مع Ray-Ban، الشركة المتخصصة في تصنيع النظارات الفاخرة.


تختبر الشركة الذكاء الاصطناعي المتعدد الوسائط في المرحلة التجريبية عبر برنامج وصول مبكر في الولايات المتحدة. ومن المقرر أن تطلق ميتا في عام 2024 الذكاء الاصطناعي المتعدد الوسائط الجديد علنًا.

وبفضل الكاميرا المدمجة في النظارات، يمكن للذكاء الاصطناعي الجديد التفاعل بذكاء مع الفيديو والتصوير الفوتوغرافي، وأيضاً عرض ما يراه مرتديها بشكل مباشر وذكي.

وصممت ميتا المساعد من أجل التحكم فيه عن طريق الصوت، إذ يمكن لمرتدي النظارة التحدث إلى المساعد كما لو كان مساعدًا صوتيًا مشابهًا لأليكسا من أمازون أو سيري من آبل.

وتشمل بعض المزايا الجديدة التي يقدمها الذكاء الاصطناعي المتعدد الوسائط:

- القدرة على تحديد ما تراه النظارات ووصفها. - القدرة على ترجمة النص المكتوب وعرض تعليقات توضيحية للصور. - القدرة على تقديم اقتراحات للملابس أو المنتجات الأخرى التي تتناسب مع ما يرتديه المستخدم.

تعد هذه الخطوة متوقعة نظرًا إلى احتضان ميتا الشامل للذكاء الاصطناعي عبر منتجاتها ومنصاتها، وترويجها للذكاء الاصطناعي المفتوح المصدر من خلال نموذجها اللغوي الكبير Llama 2.