ویکی پدیا + هوش مصنوعی = حقیقت؟ DuckDuckGo با پاسخ ربات جدید امیدوار است
DuckAssist خلاصهای از ویکیپدیا مبتنی بر هوش مصنوعی ارائه میکند، به این امید که از توهمات جلوگیری شود.
در روز چهارشنبه DuckDuckGo DuckAssist را معرفی کرد، یک سرویس خلاصه واقعی مبتنی بر هوش مصنوعی که با فناوری Anthropic پشتیبانی میشود. و OpenAI. امروز به صورت رایگان به عنوان یک آزمایش بتا گسترده برای کاربران افزونههای مرورگر و برنامههای مرور DuckDuckGo در دسترس است. این شرکت با داشتن یک مدل
مطالعه بیشتر
در نسخه ی نمایشی پاریس، Google تلاش می کند تا با ChatGPT مقابله کند اما در نهایت خود را خجالت زده می کنداین کار به این صورت است: اگر کاربر DuckDuckGo سؤالی را جستجو کند که می تواند توسط ویکی پدیا به آن پاسخ دهد، DuckAssist ممکن است ظاهر شود و از آن استفاده کند. فناوری زبان طبیعی هوش مصنوعی برای ایجاد خلاصهای از آنچه در ویکیپدیا مییابد، با پیوندهای منبع در زیر فهرست شده است. خلاصه در بالای نتایج جستجوی معمولی DuckDuckGo در یک کادر خاص ظاهر میشود.
این شرکت DuckAssist را به عنوان شکل جدیدی از "پاسخ فوری" قرار میدهد—ویژگی که کاربران را از جستجو در نتایج جستجوی وب برای یافتن سریع جلوگیری میکند. اطلاعات در مورد موضوعاتی مانند اخبار، نقشه ها و آب و هوا. در عوض، موتور جستجو نتایج Instant Answer را در بالای لیست معمول وبسایتها ارائه میکند.

DuckAssist با اسکن مجموعهای از منابع به سؤالات پاسخ میدهد - در حال حاضر که معمولاً ویکیپدیا، و گاهی اوقات سایتهای مرتبط مانند بریتانیکا است - با استفاده از DuckDuckGo فعال. نمایه سازی از آنجایی که ما از فناوری زبان طبیعی OpenAI و Anthropic برای خلاصه کردن آنچه در ویکیپدیا مییابیم استفاده میکنیم، این پاسخها باید مستقیمتر از نتایج جستجوی سنتی یا سایر پاسخهای فوری به سؤال واقعی شما پاسخ دهند.
از آنجایی که DuckDuckGo اصلی است. نقطه فروش حریم خصوصی است، این شرکت می گوید که DuckAssist "ناشناس" است و تاکید می کند که تاریخچه جستجو یا مرور را با کسی به اشتراک نمی گذارد. واینبرگ مینویسد: «ما همچنین سابقه جستجو و مرور شما را برای شرکای محتوای جستجوی خود ناشناس نگه میداریم، در این مورد OpenAI و Anthropic برای خلاصه کردن جملات ویکیپدیایی که شناسایی میکنیم استفاده میشود.»
Advertisementاگر DuckDuckGo است. با استفاده از OpenAI's GPT-3 یا ChatGPT API، ممکن است نگران باشید که سایت به طور بالقوه هر بار که فراخوانی می شود، درخواست هر کاربر را به OpenAI ارسال کند. اما با خواندن بین خطوط، به نظر میرسد که فقط مقاله ویکیپدیا (یا گزیدهای از یک مقاله) برای خلاصهسازی به OpenAI ارسال میشود، نه جستجوی خود کاربر. ما با DuckDuckGo برای شفافسازی در این مورد نیز تماس گرفتهایم.
DuckDuckGo DuckAssist را "اولین از یک سری ویژگیهای مولد با کمک هوش مصنوعی که امیدواریم در ماههای آینده عرضه کنیم" میخواند. اگر راهاندازی به خوبی انجام شود - و هیچکس با درخواستهای متخاصم آن را نقض نکند - DuckDuckGo قصد دارد "در هفتههای آینده" این ویژگی را برای همه کاربران جستجو عرضه کند.
DuckDuckGo: خطر توهمات "به شدت کاهش مییابد" h2>
همانطور که قبلاً در Ars پوشش دادهایم، LLMها تمایل به تولید نتایج اشتباه بسیار قانعکننده دارند، که محققان هوش مصنوعی آن را "توهمات" به عنوان یک اصطلاح هنری در زمینه هوش مصنوعی مینامند. تشخیص توهمات ممکن است سخت باشد مگر اینکه مطالبی را که به آنها ارجاع داده شده است بدانید، و تا حدی به این دلیل به وجود می آیند که LLMهای سبک GPT از OpenAI بین واقعیت و خیال در مجموعه داده های خود تمایز قائل نمی شوند. بهعلاوه، مدلها میتوانند بر اساس دادههایی که در غیر این صورت دقیق هستند، استنباطهای نادرستی انجام دهند.
ادامه مطلب
"پیشاپیش با عرض پوزش!" اسنپ چت در مورد توهمات با ربات مکالمه هوش مصنوعی جدید هشدار می دهددر این مورد، DuckDuckGo امیدوار است با تکیه بر ویکی پدیا به عنوان منبع، از توهم جلوگیری کند: واینبرگ می نویسد: «با درخواست از DuckAssist که فقط اطلاعات ویکی پدیا و منابع مرتبط را خلاصه کند. احتمال "توهم" - یعنی فقط چیزی را درست می کند - به شدت کاهش می یابد."
در حالی که تکیه بر یک منبع اطلاعات با کیفیت ممکن است خطاهای ناشی از اطلاعات نادرست در مجموعه داده های هوش مصنوعی را کاهش دهد، ممکن است نتواند. کاهش استنباط های نادرست و DuckDuckGo بار حقیقتسنجی را بر دوش کاربر میگذارد و پیوند منبعی را در زیر نتیجه ایجاد شده توسط هوش مصنوعی ارائه میکند که میتواند برای بررسی دقت آن استفاده شود. اما کامل نخواهد بود، و مدیر عامل شرکت واینبرگ به آن اذعان دارد: "با این وجود، DuckAssist همیشه پاسخ های دقیقی تولید نمی کند. ما کاملاً انتظار داریم که اشتباه کند."
همانطور که شرکت های بیشتری از LLM استفاده می کنند فناوری که به راحتی می تواند اطلاعات نادرست ارائه دهد، ممکن است مدتی طول بکشد و استفاده گسترده ای طول بکشد تا شرکت ها و مشتریان به طور یکسان تصمیم بگیرند که چه سطحی از توهم در یک محصول مجهز به هوش مصنوعی که برای اطلاع رسانی واقعی به مردم طراحی شده است، قابل تحمل است.