TLDR : أعلنت Google خلال Google I/O 2025 عن تحديثات لنماذج الذكاء الاصطناعي Gemini 2.5 وVeo 3 وImagen 4، بالإضافة إلى دمج وضع AI جديد في محرك البحث. من بين التحسينات، نلاحظ وضع تفكير محسّن لـGemini 2.5، ونشر AI Mode في الولايات المتحدة لأبحاث أكثر تعمقًا، وتطور Project Starline إلى Google Beam لمحادثات ثلاثية الأبعاد أكثر واقعية.
كما هو متوقع، سيطر الذكاء الاصطناعي على إعلانات Google I/O 2025: تحديثات نماذج Gemini 2.5، Veo 3 وImagen 4، AI Mode لمحرك البحث... تضع Google الذكاء الاصطناعي وGemini في قلب منتجاتها.
عائلة Gemini 2.5
Gemini 2.5 Pro، الذي أُطلق في مارس الماضي، أصبح الآن مزودًا بوضع تفكير محسّن يُسمى
Deep Think. يسمح هذا الوضع للنموذج بتخصيص المزيد من دورات الحساب للمهام المعقدة، خاصة في الرياضيات أو البرمجة، واستكشاف فرضيات متعددة قبل صياغة استجابة.
Gemini 2.5 Flash، الذي كُشف عنه في أبريل الماضي، هو نموذج تفكير هجين، يتيح للمطورين تفعيل أو تعطيل التفكير، مصمم لتوفير توازن مثالي بين التكلفة، الأداء والكمون. أعلنت Google عن تحسينات في مجال التفكير، إدارة الأكواد، المعالجة متعددة الوسائط وفهم السياقات الواسعة بالإضافة إلى تقليل استهلاك الرموز بنسبة 20 إلى 30%، وفقًا لتقييماتها الداخلية.
تستفيد النماذج من ميزات جديدة: مخرج صوتي أصلي عبر API لتجربة محادثة أكثر طبيعية، إجراءات أمان متقدمة وقدرات استخدام الكمبيوتر للوكيل الذكي Project Mariner.
نشر AI Mode
بينما استفادت AI Overviews، التي عُرضت في إصدار I/O 2024، مؤخرًا من ترقية، تعلن Google عن نشر AI Mode في الولايات المتحدة للأسئلة التي تتطلب استكشافًا معمقًا، مقارنات وتفكيرًا دقيقًا.
مدعومًا بنموذج Gemini 2.5 محسّن، مع وصول إلى مصادر ومعلومات في الوقت الفعلي، يعتمد AI Mode على تقنية "query fan-out" أو توزيع الاستفسارات. يطلق الذكاء الاصطناعي عدة عمليات بحث متزامنة حول مواضيع مختلفة متصلة بالسؤال المطروح، باستخدام مجموعة متنوعة من مصادر البيانات، ثم يجمع نتائج هذه الأبحاث لتقديم استجابة منظمة مع روابط تشعبية إلى الصفحات الإلكترونية المذكورة. يمكن للمستخدمين إذا أرادوا تحسين أبحاثهم باستخدام استفسارات متابعة.
تطور Project Starline ليصبح Google Beam
يستخدم Google Beam تقنيات متقدمة، مثل العرض الميداني الضوئي، التقاط الحجم عبر ست كاميرات، الصوت المكاني والمعالجة في الوقت الفعلي بواسطة الذكاء الاصطناعي، لإنشاء تمثيل ثلاثي الأبعاد للمحاور. تسمح هذه المقاربة بمحادثات أكثر واقعية، مع عرض بسرعة 60 إطارًا في الثانية ودقة متزايدة لحركات الرأس، دون الحاجة إلى أجهزة محمولة مثل الخوذات أو النظارات. في البداية، كانت هذه التكنولوجيا مقتصرة على نماذج أولية ضخمة، ولكنها تم تصغيرها لتتكامل في أنظمة أكثر إحكامًا، تم تطويرها بالشراكة مع HP.
ميزة الترجمة الصوتية في الوقت الفعلي، التي دمجتها Google أيضًا في Meet، تسمح بمحادثات متعددة اللغات سلسة، مع الحفاظ على الصوت، النغمة وتعبيرات المستخدم.
لتحسين الفهم
ما هو عرض الحقل الضوئي المستخدم في <span dir="ltr">Google Beam</span>، وما هي التداعيات التي قد تكون له على الواقع الافتراضي والمعزز؟
عرض الحقل الضوئي هو تقنية تلتقط وتعرض الضوء في جميع اتجاهاته، مما يسمح بإنشاء صورة ثلاثية الأبعاد واقعية دون الحاجة إلى نظارات خاصة. يمكن أن يحدث هذا ثورة في تطبيقات الواقع الافتراضي والمعزز من خلال توفير تجربة أكثر انغماسًا وطبيعية.
كيف تؤثر تقنية "<span dir="ltr">query fan-out</span>" المستخدمة في <span dir="ltr">AI Mode</span> من <span dir="ltr">Google</span> على خصوصية بيانات المستخدم؟
تنطوي تقنية "<span dir="ltr">query fan-out</span>" على إرسال استفسارات متعددة إلى مصادر مختلفة، مما قد يشكل تحديات في خصوصية البيانات بسبب زيادة نقاط الاتصال مع البيانات الحساسة المحتملة. قد يتطلب المنظمون إجراء عمليات تدقيق لضمان الامتثال لمعايير الخصوصية.