27.05.2024 08:54
Просмотров: 254

Штучний інтелект Google порадив кухарю додавати клей у піцу

Надзвичайно неправильна інформація від нового штучного інтелекту Google показує що на його поради не можна покладатися. У результатах пошуку штучний інтелект Google нещодавно запропонував кухарю додавати клей в інгредієнти піци, щоб сир не зісковзував.

Раніше говорилося, що вживання великої кількості сечі може допомогти вам вивести камінь у нирках. (Не робіть цього. І Google сказав, що це виправив.)

ШІ Google сказав, що Джон Ф. Кеннеді закінчив Університет Вісконсіна в Медісоні в шість різних років, включаючи 1993 рік . Там сказано, що жодна африканська країна не починається на літеру «К». (Ні. Кенія.)

Штучний інтелект Google порадив кухарю додавати клей у піцу

Це здебільшого безглузді приклади, які в деяких випадках надходили від людей, які намагалися вмовити ШІ Google говорити неправильні речі.

Але є серйозний урок: ви повинні мати відносно низькі очікування щодо ШІ. З генеративним штучним інтелектом від Google, ChatGPT від OpenAI і Copilot від Microsoft, ви повинні вважати, що вони неправі, доки не буде доведено протилежне.

Ці чат-боти все ще можуть бути неймовірно корисними. Але припущення, що вони помиляються, є іншою ментальною моделлю, ніж більшість технологій, які ви використовуєте регулярно. Коли ви вводите маршрути в Waze, надсилаєте електронний лист або натискаєте посилання в Google, у вас є обґрунтовані очікування, що технології працюють належним чином і точно.

«Переважна більшість оглядів штучного інтелекту надають високоякісну інформацію з посиланнями для глибшого вивчення Інтернету», — йдеться в заяві Google. Компанія заявила, що провела масштабне тестування перед запуском результатів пошуку ШІ, і що компанія використовує приклади помилок, щоб «розробити ширші вдосконалення наших систем, деякі з яких уже почали розгортатися».

Я поясню, чому штучний інтелект Google (та інші чат-боти) можуть наказувати вам їсти клей, і поясню, які уроки ви повинні взяти з таких помилок.

Як ШІ може так помилятися

Технологія, що лежить в основі ChatGPT і «Огляди штучного інтелекту» в пошуках Google, які минулого тижня стали доступними для всіх американців , називається великою мовною моделлю.

Технологія отримує купу інформації з Інтернету — це можуть бути статті новин, Вікіпедія, онлайн-рецепти, практичні тести для вступу до юридичних шкіл, форуми Reddit тощо. На основі шаблонів з даних Інтернету комп’ютери генерують математично ймовірні слова для ваших запитів.

Комп’ютерний програміст Саймон Віллісон сказав, що штучний інтелект Google працює, обробляючи терміни, які ви вводите у вікно пошуку, і вставляючи пошук і результати у велику мовну модель. Потім він витягує корисну інформацію з відповідних веб-сайтів у результати пошуку Google.

Іноді ШІ Google виділяє правильну та корисну інформацію. Іноді, особливо якщо в Інтернеті немає багато інформації, пов’язаної з вашим пошуком, він видає щось не те.

Приклад клею для піци, сказав Віллісон, здається, походить із відносно рідкісної інформації в Інтернеті, пов’язаної з, ймовірно, незвичайним пошуком у Google щодо приготування сиру до піци. Виявилося, що пошуковий штучний інтелект Google черпає свою відповідь з одного, здавалося б, жартівливого допису 11-річної давності з Reddit.

ШІ не може відрізнити жарт від правди. Або якщо штучний інтелект не має достатньо інформації, щоб дати вам точну відповідь, він може вигадати впевнену вигадку, зокрема про те, що собаки професійно грали в баскетбол і хокей.

«Важко створити таку версію, яка б не мала всіляких дивних помилок», — сказав Віллісон.

Більшість прикладів, які літають у соціальних мережах, були смішними помилками Google AI. Однак ми підтвердили, що штучний інтелект Google випустив звичну дезінформацію про те, що колишній президент Барак Обама є мусульманином. Це брехня.

Google заявив, що видалив згенеровану ШІ неправдиву інформацію.

Компанії не розкривають багато інформації про те, яку інформацію «вчаться» їхні моделі AI або як часто їхні чат-боти помиляються.

OpenAI заявив, що рівень його точності покращився. Microsoft заявила, що її чат-бот Copilot містить посилання у своїх відповідях, як і Google, щоб люди могли досліджувати більше. Microsoft також заявила, що приймає відгуки від людей і вдосконалює Copilot.

«Не довіряй і перевіряй»

Віллісон запропонував змінити рефрен часів Рейгана «довіряй, але перевіряй» для чат-ботів. Помістім це на наклейки на бампер.

Більшість людей не стали б їсти клей лише тому, що це запропонував Google. Але чат-ботами вже важко ефективно користуватися . Ризик полягає в тому, що штучний інтелект, який часто помиляється, змарнує ваш час і підірве вашу довіру до нової технології.

Письменниця технологій Моллі Вайт сказала, що компанії повинні робити більше, щоб знизити ваші очікування.

Вона сказала, що Google, OpenAI і Microsoft повинні бути обережнішими, щоб не показувати вам інформацію, згенеровану штучним інтелектом, для відповідей на важливі запитання, як-от ті, що стосуються вашого здоров’я чи закону.

Представники Google і OpenAI заявили, що компанії обмежують використання інформації, отриманої за допомогою штучного інтелекту, для важливих тем, включаючи питання охорони здоров’я та юридичні питання. У Microsoft заявили, що багато відповідей Copilot, у тому числі щодо медичної та юридичної інформації, можуть спрямовувати людей до результатів веб-пошуку Bing.

Вайт також сказав, що компаніям не слід демонструвати нереалістичні демонстрації спритних чат-ботів, які створюють враження, що ви спілкуєтеся з людиною, яка має нескінченні знання.

«Це не людина на іншому кінці, яка міркує», — сказав Вайт. «Це здогад про те, що може здатися правильним».

Особливо складно визначити свої очікування щодо відповідей штучного інтелекту під час пошуку Google. Зараз Google змішує знайомі результати пошуку з новою інформацією, згенерованою штучним інтелектом, яка, швидше за все, буде менш надійною. ChatGPT цього не робить.

З відповідно низькими очікуваннями я все ще обережно цікавлюся ШІ Google. Цього тижня я шукав у Google найкращого редактора Wired. Інформація, створена Google за допомогою штучного інтелекту, поєднала її біографічні дані, а також цитату її боса, коли її приймали на роботу.

Якби не відповідь Google від ШІ, мені довелося б перерити кілька посилань, щоб знайти інформацію. Google пообіцяв, що його штучний інтелект зробить пошук у Google за вас .

Цього разу обіцянку було виконано. І ШІ Google не казав мені їсти клей.

Джерело: internetua.com

Новости портала «Весь Харьков»


Темы: компьютер

Июль
Пн Вт Ср Чт Пт Сб Вс
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31        
 
Архив новостей

Ми рекомендуємо

  • Рощинская — доставка воды в Харькове на сайте vodar.in.ua.

Юридичне забезпечення порталу

Адвокат
СМОРОДИНСЬКИЙ
Віктор Семенович