وضع الذكاء الاصطناعي من Google يفهم ويحلل صورك الآن

أضيف بتاريخ 04/15/2025
منصة ذكاء


يشهد البحث المرئي اليوم خطوة رئيسية جديدة مع دمج القدرات متعددة الوسائط في وضع الذكاء الاصطناعي من Google. يتيح هذا التطور التقني للمستخدمين التفاعل مع صورهم بطريقة غير مسبوقة، من خلال طرح أسئلة دقيقة ومعقدة حول محتواها.

يقول روبي شتاين، نائب رئيس المنتجات في Google Search: "يمكن للمستخدمين الآن الحصول على إجابة غنية وشاملة مع روابط للتعمق في كل جانب من جوانب بحثهم المرئي". يعتمد هذا الابتكار على نسخة مخصصة من Gemini، مدمجة مع قدرات Google Lens، مما يتيح فهماً عميقاً للصور.

يستخدم النظام نهجاً متطوراً يسمى "query fan-out" الذي يحلل الصورة ككل ومكوناتها الفردية في آن واحد. وفقاً لـ Google، تتيح هذه التقنية الحصول على إجابات "دقيقة للغاية ومرتبطة بالسياق"، متجاوزة بكثير قدرات البحث التقليدية.

لتوضيح هذا التطور، دعونا نأخذ مثال صورة رف كتب. يمكن للذكاء الاصطناعي ليس فقط تحديد كل كتاب، ولكن أيضاً تقديم توصيات مخصصة بناءً على العناوين الموجودة. يمكن للمستخدمين حتى تنقية بحثهم بأسئلة محددة مثل "من بين هذه الاقتراحات، ما هي القراءة الأسرع؟"، كما ذكر موقع TechCrunch.

يتوسع الوصول إلى هذه التقنية تدريجياً. بعد أن كانت مقتصرة في البداية على مشتركي Google One AI Premium، أصبحت الميزة متاحة لـ "ملايين المستخدمين الإضافيين" عبر Labs في الولايات المتحدة. ردود الفعل الأولية مشجعة للغاية، حيث يقوم المستخدمون بصياغة استفسارات أطول بمرتين من عمليات البحث التقليدية.

يمثل هذا التطور خطوة حاسمة في تعميم الذكاء الاصطناعي المطبق على البحث المرئي. متوفر على تطبيق Google لأنظمة Android و iOS، وهو يغير بشكل أساسي طريقة تفاعلنا مع الصور الرقمية. يؤكد Google في مدونته الرسمية: "نلاحظ أن المستخدمين يستخدمون هذه الميزة لمهام أكثر تعقيداً، من مقارنة المنتجات إلى تخطيط الرحلات".

في مواجهة المنافسة من ChatGPT Search و Perplexity، تؤكد Google موقعها الريادي من خلال تقديم تجربة بحث أكثر بداهة وتفاعلية. يمثل هذا الابتكار نقطة تحول مهمة في تطور محركات البحث، مما يمهد الطريق لعصر جديد من التفاعل بين الإنسان والآلة.