Загальновідома тенденція великих мовних моделей штучного інтелекту до вигадок, коли користувач запитує довідку. Не оминула вона й «штатний» чатбот влади Нью-Йорка, який дає неправдиві відповіді на важливі питання щодо місцевого законодавства та муніципальної політики.
Про це розповідає ProIT
У жовтні минулого року чат-бот “MyCity” у Нью-Йорку був запущений як пілотна програма. В оголошенні ChatBot рекламувався як спосіб для власників бізнесу зберегти час та гроші на отриманні миттєвої корисної та надійної інформації з понад 2000 вебсторінок NYC Business та статей на такі теми, як дотримання кодексів і правил, заохочення для бізнесу та уникнення порушень і штрафів.
Але було виявлено, що чат-бот MyCity надає небезпечну неправильну інформацію про деякі основні міські правила. Чатбот дає відверто невірну інформацію щодо оренди будівель у місті, оплати праці та норм робочого часу, а також про різні галузі міського господарства, як-от ціни на похоронні послуги, а також справи в інших сферах життя. При тому іноді чатбот давав і вірні відповіді на ті ж самі питання.
MyCity зараз перебуває у статусі бета-версії та повідомляє користувачам, що «іноді може створювати неправильний, шкідливий або упереджений вміст» і що користувачі «не повинні покладатися на його відповіді як заміну професійним порадам». Але на сторінці також зазначено, що вона «навчена надавати офіційну інформацію про бізнес Нью-Йорка» та є способом «допомогти власникам бізнесу скеровувати уряд».
Прессекретар Управління технологій та інновацій Нью-Йорка Леслі Браун каже, що бот «вже надав тисячам людей своєчасні та точні відповіді» і що «ми продовжуватимемо зосереджуватися на оновленні цього інструменту, щоб ми могли краще підтримувати малий бізнес».
Недавній матеріал Washington Post розповідав, що чатботи, інтегровані в основне програмне забезпечення для підготовки податків, надають випадкові, оманливі або неточні відповіді на багато податкових запитів. Подібні проблеми спонукають деякі компанії відійти від більш узагальнених чатботів до більш спеціально навчених моделей, які налаштовані лише на невеликий набір відповідної інформації. Американський регулятор FTC прагне отримати можливість притягувати власників чатботів до відповідальності за неправдиву або зневажливу інформацію.
Внутрішній монолог: штучний інтелект навчили думати (а що, так можна було?)
Джерело: Ars Technica