Технологічні гіганти Amazon, Google та Meta зазнали критики від сенатського комітету в Австралії за непрозорість у використанні даних австралійців для навчання своїх потужних штучних інтелектів.
Про це розповідає ProIT
Сенатор від Лейбористської партії Тоні Шелдон, який очолює розслідування, висловив своє обурення через відмову цих міжнародних корпорацій відповідати на прямі запитання щодо використання особистої інформації австралійців. Шелдон зазначив, що спостереження за униканням запитань від Amazon, Meta і Google під час слухань нагадувало “дешевий магічний трюк з маханням руками, димом та нічим в підсумку”.
“Вони, як пірати, грабують нашу культуру, дані та творчість для власної вигоди, залишаючи австралійців з порожніми руками”, – сказав Шелдон після оприлюднення фінального звіту розслідування.
Потреба у законодавчих змінах
У звіті зазначено, що моделі загального призначення, такі як GPT від OpenAI, Llama від Meta та Gemini від Google, повинні автоматично відноситися до категорії “високого ризику” та підлягати обов’язковим вимогам прозорості та відповідальності.
Шелдон наголосив на необхідності нових законів, що регулюють штучний інтелект, щоб зупинити “велику технологію”, а також зміни існуючих законів. Він вказав на відмову Amazon розкривати, як використовуються дані з Alexa, Kindle або Audible для навчання їх AI.
Google також уникнув відповідей щодо використання даних користувачів своїх сервісів для навчання AI. Meta визнала, що збирає дані з австралійських Facebook і Instagram з 2007 року, але не змогла пояснити, як користувачі дають згоду на використання їхніх даних для моделей, яких тоді не існувало.
Вплив на творчих працівників
Звіт визначив, що творчі працівники найбільше ризикують через вплив AI на їхній дохід. Рекомендується впровадити механізми компенсації для творців, коли AI використовує їхні оригінальні роботи. Розробники AI мають бути прозорими щодо використання захищених авторським правом робіт у своїх наборах даних.
Серед 13 рекомендацій звіту є заклик до введення окремого законодавства для AI-моделей “високого ризику”.
Члени коаліції, сенатори Лінда Рейнолдс і Джеймс МакГрат, вважають, що AI становить більшу загрозу для кібербезпеки Австралії, національної безпеки та демократичних інститутів, ніж для творчої економіки. Вони наголосили на необхідності впровадження механізмів, які не заважатимуть можливостям AI щодо створення робочих місць і зростання продуктивності.