Журналісти викрили ШІ Perplexity у фантазіях про гриби замість точних відповідей на питання

Журналісти викрили ШІ Perplexity у фантазіях про гриби замість точних відповідей на питання

Штучний інтелект Perplexity: новий рівень галюцинацій

У світі технологій нещодавно виникла неабияка дискусія щодо надійності моделей штучного інтелекту, і особливо — пошукової системи на основі Perplexity. Високо оцінена інвесторами, серед яких Джефф Безос, ця система обіцяла бути новим конкурентом для Google. Проте, замість чітких відповідей, Perplexity все частіше видає абсурдні вигадки, що вже викликає занепокоєння у користувачів та експертів.

Журналісти з видання Wired вирішили провести простий тест, аби перевірити здатність Perplexity коректно резюмувати текст. На вебсторінці було розміщене лише одне речення: «Я репортер Wired» (I am a reporter with Wired). Результат здивував усіх: замість очікуваного резюме Perplexity вигадала цілу історію про дівчину на ім’я Амелія, яка блукає чарівним лісом, слідуючи за сяючими грибами.

Таке дослідження виявило, що пошукова система навіть не намагалася прочитати запропоновану сторінку. Попри запевнення компанії, що її чатбот «шукає в Інтернеті, щоб надати доступну та перевірену відповідь розмовною мовою», реальність виявилася зовсім іншою.

Не тільки Perplexity стикається з подібними проблемами. Великі гравці на ринку штучного інтелекту, такі як OpenAI, Microsoft та Google, також час від часу демонструють випадки неправильних відповідей своїх мовних моделей. Однак ситуація з Perplexity привернула особливу увагу через значні інвестиції та високі очікування.

Чатбот Perplexity вже неодноразово був викритий у створенні неправдивих історій та вигаданих цитат. Наприклад, Associated Press раніше повідомляло, що Perplexity видавала фальшиві цитати реальних людей, а Forbes зафіксувало випадок, коли система поширювала статті без посилань на джерело. Головний юрисконсульт видання, Марія-Роза Картолано, звинуватила чатбот у навмисному порушенні прав.

Ці проблеми викликають питання щодо надійності та етики використання таких систем. Експерти називають подібні вигадки штучного інтелекту «галюцинаціями», що є зручним евфемізмом для опису систематичного поширення невірної інформації.

На старті Perplexity вважали перспективним стартапом, здатним створити нову бізнес-модель для видавців та конкурувати з великими гравцями. Однак, на практиці, чатбот компанії виявився далеким від ідеалу, що ставить під сумнів його здатність виконувати заявлені функції.

Незважаючи на астрономічні суми інвестицій та амбіційні обіцянки, мовні моделі штучного інтелекту продовжують робити помилки. Розробники штучного інтелекту повинні зосередитися на вдосконаленні технологій та забезпеченні їхньої надійності, щоб уникнути подібних ситуацій у майбутньому. Без цього, перспективи використання таких систем залишатимуться під великим питанням, а користувачі будуть змушені шукати альтернативи для отримання достовірної інформації.