يمكن أن تخطط بحث Google العميق لعطلك المقبل - والآن أصبح مجانيًا

يمكن أن تخطط بحث Google العميق لعطلك المقبل – والآن أصبح مجانيًا

[ad_1]

اشترك في البريد الإلكتروني المجاني للسفر لـ Simon Calder للحصول على مشورة الخبراء وخصومات لتوفير المال Simon Calder على البريد الإلكتروني Simon Calder’s Travel’s Travel

أطلقت Google نسخة ترقية من أداة “Research Deep” Gemini ، مما يجعل مساعد البحث الذي يعمل بذات AI مجانيًا للجميع لتجربته.

إذا لم تكن قد سمعت بالبحث العميق ، فأنت لست وحدك. في سباق Google لتوسيع منتجات AI عبر الهواتف الذكية ونتائج البحث ومساحة عمل Google ، تم التغاضي عن الأداة بسهولة-ليس أقلها لأنها كانت حصرية حتى الآن على المستوى المدفوع لتطبيق Gemini.

تم إطلاقه في ديسمبر 2024 ، يبحث Deep Research بفعالية على الويب نيابة عنك. امنحه موضوعًا تريد معرفة المزيد عنه-من منتجعات التزلج الصديقة للطفل إلى تشريعات المفاعل النووي-وسيختفي مساعد الذكاء الاصطناعى لمدة خمس دقائق ، ويصيد بالإنترنت للمصادر الموثوقة والمعلومات المحدثة قبل ظهور تقرير شامل ودائم.

اقرأ المزيد: من النجوم إلى التحويلات – توقعت اتجاهات السفر العليا لعام 2025

من خلال ترقية اليوم إلى Deep Research 2.0 – ومن خلال إلقاؤه مفتوحًا للجميع لمحاولة – تأمل Google في أن تتجذب الأداة ليس فقط للمستخدمين الأكاديميين والعلميين “يتجهون إلى الانصهار النووي” ، ولكن للشخص العادي ، سواء كانوا يخططون لقضاء عطلة أو نقل إلى المنزل أو مقارنة خدمات المناظر الطبيعية المحلية.

أعطى Aarush Selvan ، كبير مديري المنتجات في Google ، المستقلة نظرة أولى على الإصدار الجديد من Deep Research قبل إعادة إطلاقه. يقول سيلفان: “إننا ننظر إلى أنواع المهام التي قد تضطر قبل أن تضطر إلى فتح 50 علامة تبويب كروم ونسج المعلومات معًا للوصول إلى إجابة ، أو للذهاب بعمق في موضوع ما”.

يقوم الإصدار الجديد من Deep Research بترقية الأداة إلى أحدث طراز “التفكير” في Google – والذي يشرح بشفافية أسبابه أثناء عمله ، ويسأل وتصحيح نفسه كما هو الحال ، والتي تقول Google يجب أن تؤدي إلى نتائج أكثر دقة ورؤية أكبر حول كيفية وصولها إلى استنتاجاتها.

يقول سيلفان: “هذا النموذج الجديد يفكر بنشاط بين اتخاذ الخطوات”. “هذا يسمح لها أن تكون أكثر تفكيرًا في كيفية تصفح الويب والقيام بمزيد من التحليل حول النتائج التي توصل إليها. والفكرة هي أنها ستبدأ في أن تكون قادرة على كتابة تقارير أكثر ثاقبة وأكثر تفصيلاً. “

لإظهار أداة البحث العميق التي تمت ترقيتها حديثًا ، كلف Selvan من الذكاء الاصطناعى بالبحث عن وجهات محتملة للعطلات في جزر الكناري إلى جانب مجموعة من المتطلبات الشخصية المحددة: شخصان بالغان وواحد من السبع سنوات ، وهو التركيز على الطعام الجيد والترفيه ، مع وجود وجهات مع متوسط ​​درجات الحرارة خلال النهار.

في حين أن الأبحاث العميقة التي سبق أن تعرض قائمة بالمواقع الإلكترونية التي كانت تمر بها للمعلومات ، فإن نموذج التفكير الجديد يقدم تعليقًا جاريًا على عملية التفكير: أولاً تحديد قائمة طويلة من وجهات العطلات المحتملة ، ثم الغوص في مواقع الويب الفندقية للعثور على نوادي الأطفال ، والبحث في المطاعم المحلية والأماكن ، وسحب بيانات الطقس التاريخية لتخفيض تقريرها إلى يدها ذات الصلة.

“(Deep Research 2.0) قادر الآن على التعبير عن ما يتم العثور عليه ، ولماذا هو مثير للاهتمام ، وما ينبغي أن يبحث عنه بعد ذلك. يقول سيلفان: “يمكننا إعادة هذه المعلومات وإظهار المستخدم”.

فتح الصورة في المعرض

البحوث العميقة الجوزاء في العمل – كانت الأداة متاحة في السابق فقط للمشتركين الذين يدفعون (المستقلين)

“مثال رائع آخر عملنا عليه داخليًا هو العثور على أفضل معسكر صيفي لطفلك ، أليس كذلك؟ مثل وجود كل هذه المعسكرات الصغيرة المختلفة التي يجب مراعاتها ، وتريد معرفة أي نصف يوم ، والتي هي يوم كامل ، وكيف يتم تسعيرها جميعًا. “

يأتي تحديث اليوم إلى Deep Research حيث تواجه Google زيادة رد الفعل من الناشرين عبر الإنترنت ، الذين يقولون إن نتائج البحث المثيرة للجدل التي أنشأتها الذكاء الاصطناعي-على غرار تلك التي أنشأتها البحث العميق-تقلل من حركة المرور وإيرادات الإعلانات. من بين التغييرات الأخرى ، يركز Research 2.0 على الأقل على الأقل على تحديد مصادرها ، وإعطاء الاستشهادات والروابط الصادرة إلى المواقع التي يتم الرجوع إليها. يصف سيلفان تقارير المساعد بأنه “نقطة انطلاق”.

“نريد أن نجعل من السهل على المستخدمين النقر المزدوج في كل موقع ويب. لهذا السبب نكرس الكثير من العقارات على الشاشة (الروابط). نريد أن ينقر الناس على هذه المواقع ، وقراءة ما هو مثير للاهتمام وفهم سبب ظهور هذه المواقع هنا. “

يتوفر بحث عميق مع Gemini 2.0 Flash Thinking مجانًا الآن في تطبيق Gemini.

[ad_2]

المصدر