14.06.2024

6 причин, чому не варто сліпо довіряти штучному інтелекту

Незважаючи на свою назву, ШІ не розумний і часом помиляється в найсмішніших речах.

1. ШІ запрограмований створювати правдоподібні, а не правдиві відповіді

Штучний інтелект цілком може чогось не знати. Але він ніколи не зізнається в цьому.

ШІ здатний нести у відповідь на будь-яке запитання позамежні дурниці, але з абсолютною впевненістю у власній правоті. Якщо ж його викрити у брехні, він погодиться з вами, виправиться і продовжить генерувати текст, ніби нічого й не сталося.

ШІ-чатботи мають обмежену інформацію: вони знають тільки те, що викладено в текстах, на яких їх навчали. Але при цьому вони запрограмовані відповідати в будь-якому разі, навіть якщо не знають правильного варіанту. Тому ChatGPT і його аналоги регулярно несуть нісенітницю з розумним виглядом.

Не забувайте перевіряти відомості, отримані від чат-бота. Мало про що він думав, коли писав відповідь.

2. ШІ може сперечатися з вами, навіть коли ви маєте рацію

Ситуації, коли ШІ не знає відповіді і тому вигадує небилиці, – це ще півбіди. Ще гірше, коли ви ловите його на брехні, а він не виправляється і продовжує упиратися – просто тому, що був навчений на невірних відомостях.

Ба більше, ШІ може навмисно спотворювати інформацію, щоб вивести розмову в русло, яке нейромережі видається більш правильним. Це призводить до різних кумедних результатів.

Один користувач описав ситуацію, як він запитав у бота Bing ChatGPT, коли буде сеанс фільму “Аватар: Шлях води” в кінотеатрах поблизу від його будинку. У відповідь той почав запевняти його, що фільм ще не вийшов. Коли користувач спробував переконати ШІ, той став наполягати, говорити, що надворі все ще 2022 рік і до прем’єри 10 місяців.

Bing припустив, що співрозмовник помиляється, якщо думає, що вже настав 2023-й, і порадив перевірити дату на своєму телефоні. Коли користувач повідомив, що вже це зробив, той заявив, що в нього на смартфоні тимчасові налаштування збито вірусом і взагалі людина надто багато сперечається та має перестати бути такою наполегливою.

Користувачеві так і не вдалося переконати ШІ, що “Аватар: Шлях води” вже вийшов і що 2023 рік розташований після 2022-го.

Незважаючи на назву “штучний інтелект”, чат-боти не розумні і генерують відповіді, компілюючи тексти, які вони читали до цього. Так, Open AI ChatGPT був навчений на відомостях до 2021 року, а Bing ChatGPT – до 2022-го. Тому вони матимуть у своєму розпорядженні тільки ту інформацію, яка була актуальною на момент їхнього навчання.

3. ШІ обмежує ваші творчі здібності

Багато авторів контенту, художників і дизайнерів сьогодні активно застосовують штучний інтелект. Однак якщо використовувати його весь час, є ризик, що ваш “творчий м’яз” атрофується і вам буде важче створювати власні ідеї.

Коли чат-боти на базі ШІ генерують відповідь, люди часто просто копіюють і вставляють її, не докладаючи зусиль до її осмислення. Такий підхід абсолютно не стимулює креативне мислення.

Річ у тім, ШІ здатний тільки копіювати те, що до нього створили люди, просто вільно компілюючи і перемішуючи те, що він побачив. Він не вміє створювати справді оригінальні твори.

Якщо ви станете сильно залежні від ШІ, то будете повторювати вже існуючі ідеї та концепції, замість того щоб створити власні.

4. ШІ не здатний давати зворотний зв’язок

Спробуйте змусити ChatGPT написати якусь дипломну або курсову роботу. Можливо, що в нього вийде цілком непоганий текст, який буде не соромно показати людям.

Але якщо ви попросите ШІ, щоб він вказав джерела наданої ним інформації, то виявите, що їх не існує. Назви досліджень, на які посилається ChatGPT, та імена вчених, які їх створили, запросто можуть виявитися вигаданими, а посилання на статті в інтернеті, які він надає, нікуди не вестимуть.

ШІ не здатний пояснити, звідки він бере ту чи іншу інформацію, тому що він запрограмований генерувати тексти на основі інших текстів, а не осмислювати те, що він там понаписував. Тому, навіть якщо він відповідає правильно, то пояснити, звідки йому відомі ці відомості, штучний інтелект не в змозі.

5. ШІ можуть використовувати зловмисники

Попри всі переваги ШІ, він також може бути використаний людьми з недобрими намірами.

Прикладом такого зловживання є створення так званих діпфейків. Ця технологія дає змогу генерувати надзвичайно реалістичні відео або аудіозаписи, в яких штучно створені зображення людей говорять або роблять те, що насправді вони не говорили або не робили. Це може бути використано для обману жертв, створення фальшивих новин або навіть для шантажу і вимагання.

Значна частина напрацювань у сфері ШІ перебуває у відкритому доступі й дає змогу будь-кому отримати доступ до таких технологій, як розпізнавання зображень і облич. А текстові моделі на кшталт Open AI ChatGPT можуть застосовуватися для тролінгу, цькування в соцмережах або поширення брехливих відомостей, які мають правдоподібний вигляд, але насправді є брехливими.

Нарешті, зловмисники можуть підсовувати ШІ неправильні дані для навчання, і надалі він сам транслюватиме їх, вводячи користувачів в оману.

6. ШІ не може замінити людське судження

Повністю довіряти штучному інтелекту також не варто під час ухвалення рішень, що ґрунтуються на емоціях та особистих відчуттях і вподобаннях. Це пов’язано з тим, що ШІ не в змозі врахувати людські емоції, контекст і нематеріальні аспекти, які необхідні для розуміння та інтерпретації багатьох понять.

Наприклад, якщо ви попросите АІ вибрати між двома книжками, він порекомендує ту, в якої вищий рейтинг, але не зможе врахувати ваш особистий смак, вподобання в читанні або мету, для якої вам потрібна та чи інша робота.

А рецензент-людина може дати детальніший та індивідуальніший огляд твору, оцінюючи його літературну цінність, відповідність інтересам читача та інші суб’єктивні чинники, які ШІ не здатен виміряти цифрами.

Поділитись

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *