الأخبار التقنية

تحديث الذكاء الاصطناعي من Google| توسّع “AI Mode” وتحول جذري في تجربة البحث

في يونيو 2025، أطلقت Google أحد أكثر التحديثات تأثيرًا في مشهد الذكاء الاصطناعي والبحث الإلكتروني، وهو تحديث موسع لوضع “AI Mode” داخل محرك البحث الأساسي، شمل توسيع نطاق المساعد الذكي التفاعلي ليدعم التفاعل عبر الصوت، النص، والكاميرا. هذه الخطوة جاءت بعد أشهر من اختبارات Gemini وSearch Generative Experience، لكنها في يونيو أصبحت واقعية على نطاق عالمي بعد أن تم تفعيلها أولًا في الولايات المتحدة، ثم في الهند، وأجزاء من أوروبا.

المثير للاهتمام أن هذا التحديث لا يعتبر فقط تحسينًا لمحرك البحث، بل إعادة تعريف لتجربة المستخدم، حيث يتحول Google من محرك بحث تقليدي إلى منصة تفاعلية للحوار الذكي، قادرة على فهم السياق، الصور، وحتى الاستماع إلى الصوت والرد عليه بمساعدة الذكاء الاصطناعي الفوري.

ما هو وضع “AI Mode” في بحث Google؟

وضع “AI Mode” هو ميزة جديدة مدمجة في صفحة Google الرئيسية، تُتيح للمستخدمين طرح أسئلتهم بصوتهم أو كتابةً أو حتى إرسال صورة بالكاميرا، ليقوم الذكاء الاصطناعي بتحليل الطلب والرد بجواب مركب وسريع. يعتمد هذا الوضع على قدرات Gemini 2.5، وهو النموذج اللغوي الكبير الذي طورته Google DeepMind، والذي يتمتع بفهم متقدم للسياق والسلوك البشري في عمليات البحث.

الذكاء الاصطناعي جيمني من Google توسّع AI Mode

إحدى أبرز ميزات AI Mode هي أنه يستخدم آلية تُعرف باسم “query fan-out”، أي أنه عندما تطرح سؤالًا، لا يبحث في مصدر واحد فقط، بل يرسل استفسارك بشكل متزامن إلى عدة محركات داخلية ومصادر موثوقة ثم يعيد إليك ملخصًا مركبًا ودقيقًا.

هذا التحديث يوفر تجربة غنية وفورية، حيث تظهر الإجابة مباشرةً أعلى صفحة النتائج، على هيئة “AI Overview” تتضمن جملًا كاملة، روابط موثوقة، وشرحًا بلغة طبيعية سهلة الفهم، مما يجعل الحاجة إلى النقر على الروابط أقل، وهو ما قد يؤثر مستقبلاً على استراتيجيات تحسين محركات البحث (SEO).

التفاعل بالصوت والكاميرا قفزة نحو تجربة بحث متعددة الوسائط

لأول مرة، يُمكن للمستخدم أن يبدأ المحادثة مع Google صوتيًا وليس فقط عبر النص، بل أيضًا عبر رفع صورة أو توجيه الكاميرا إلى شيء في محيطه. على سبيل المثال، يُمكنك تصوير نبات وتسأل: “هل هذا سام؟”، أو تصوير قائمة طعام وتسأل “ما هو الأقل سعرات؟”، وسيتولى AI Mode الإجابة بدقة.

وفقًا لتقرير Android Central، يجري حاليًا اختبار ميزة Search Live، وهي أداة تجعل Google Assistant قادرًا على الرد الفوري على سلسلة من الأسئلة بالصوت، مع الاحتفاظ بسياق الحديث السابق. هذا يجعل تجربة البحث شبيهة بمحادثة تفاعلية حقيقية، مثل التحدث مع مساعد شخصي ذكي يعرف ما تريد قبل أن تنهي السؤال.

هذه التجربة الصوتية تمت إضافتها إلى تطبيق Google على نظام Android، وتدريجيًا بدأت تظهر لمستخدمي iOS أيضًا، مع إشعار أعلى الشاشة يوضح أن “البحث يتم بواسطة الذكاء الاصطناعي”.

ماذا يعني هذا لمستقبل تحسين المحتوى على الويب؟

مع تزايد استخدام “AI Overviews” ودمج الردود المباشرة في نتائج البحث، تواجه المواقع الإلكترونية تحديًا كبيرًا في جذب النقرات. حيث أصبحت Google تعرض الإجابة كاملة للمستخدم دون أن يضطر إلى الدخول على الرابط. ورغم أن الروابط لا تزال مذكورة في نهاية الملخص، إلا أن نسبة النقر CTR قد تتأثر سلبًا في بعض المجالات.

هذا يفرض على صناع المحتوى ضرورة التحول من مجرد كتابة محتوى مليء بالكلمات المفتاحية إلى إنتاج محتوى عميق ومفيد ومباشر يتماشى مع أسئلة المستخدم وسياق بحثه.

كما أصبح من المهم اعتماد تنسيقات “FAQ”، وتحسين سرعة الموقع وتجربة الاستخدام على الجوال، لأن الخوارزميات الحالية لـ AI Mode تُعلي من شأن المواقع التي تقدم تجربة سريعة، واضحة، ومباشرة للمعلومة.

توسّع عالمي تدريجي من أمريكا إلى الهند وباقي الدول

بعد الإطلاق الأولي في الولايات المتحدة، أعلنت Google في نهاية يونيو أنها بدأت توسيع AI Mode ليشمل المستخدمين في الهند باللغة الإنجليزية، تمهيدًا لدعم اللغات الهندية المحلية لاحقًا. وأكدت الشركة أن هذا التوسع سيشمل أيضًا أوروبا خلال الربع الثالث من 2025.

هذا يؤكد أن Google لا تطرح هذه الميزات كتجربة، بل تتعامل معها كمستقبل فعلي لمحرك البحث، وقد بدأ فعليًا يُستبدل الوضع التقليدي تدريجيًا، لتصبح صفحة البحث نفسها تفاعلية ومبنية على الذكاء الاصطناعي بالكامل.

لماذا AI Mode من Google بداية لعصر جديد في البحث

يُمثل AI Mode من Google أكثر من مجرد تحديث لواجهة البحث أو تحسين بسيط في تجربة المستخدم؛ إنه نقلة نوعية تعيد تعريف مفهوم “محرك البحث” نفسه. ففي حين أن المستخدم كان في الماضي يكتب كلمات مفتاحية ويختار من بين روابط، بات الآن يتحدث، يلتقط صورة، أو يكتب جملة كاملة ويتلقى إجابة دقيقة، ذكية، ومباشرة من نموذج لغوي متقدم يفهم السياق والنوايا.

الذكاء الاصطناعي هنا لا يكتفي بجلب النتائج، بل يبني محتوى جديدًا في لحظته من خلال تحليل المصادر، وتقديمه في صيغة تلائم كل مستخدم على حدة. ومع التوسع القادم لهذا الوضع في باقي الدول واللغات، سيكون AI Mode أداة يومية يستخدمها الجميع – من الطلاب والباحثين إلى روّاد الأعمال وأصحاب المواقع. لذلك فإن فهم آلية عمله والاستعداد للتفاعل معه أصبح ضرورة استراتيجية لكل من يعمل في المحتوى الرقمي، لا مجرد خيار.

جدول مقارنة بين AI Mode والبحث التقليدي في Google

العنصرالبحث التقليديAI Mode الجديد
طريقة الإدخالنص فقطنص، صوت، صورة، كاميرا
أسلوب عرض النتائجقائمة روابطإجابة مركبة (AI Overview) مع روابط مختارة
السياق في المحادثةلا يُحتفظ بهيُحافظ على سياق الحديث عند تعدد الأسئلة
مصدر المعلوماتترتيب تقليدي بالاعتماد على SEOتلخيص من عدة مصادر موثوقة في الوقت الفعلي
سرعة الوصول للمعلومةيتطلب النقر والاستكشافيظهر الجواب مباشرة أعلى النتائج
التأثير على المواقعيعتمد على ترتيب النقرات (CTR)يقلل من الزيارات لكن يعزز الموثوقية

الخلاصة

تُشكّل تحديثات AI Mode من Google في يونيو 2025 بداية مرحلة جديدة في استخدام محركات البحث، حيث تصبح الذكاء الاصطناعي هو المحرّك الأساسي لفهم الأسئلة وتقديم الإجابات، وليس مجرد خوارزمية لترتيب الروابط. ومع دعم إدخال الصوت والصور، وقدرة Gemini على تحليل البيانات السياقية والبحثية في آنٍ واحد، تحوّلت تجربة Google إلى منصة شاملة للتفاعل الفوري والمعرفة العميقة.

سواء كنت صانع محتوى أو مستخدمًا عاديًا، فإن هذا التحديث يفرض عليك تغيير طريقة استخدامك للبحث وطريقة إنتاجك للمحتوى، لأن العالم الآن يتحدث إلى محركات البحث… ويتلقى إجابة ذكية وفورية.

📌 مصدر رسمي
Houston Chronicle – شرح AI Mode من Google

📌 مصدر رسمي
Android Central – تجربة AI Search Live تحت الاختبار

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Social Media Auto Publish Powered By : XYZScripts.com

أوقف مانع الاعلان

انت تستخدم مانع الأعلان الرجاء تعطيلها لمواصلة التصفح