Мері Луїс отримала відмову в оренді через оцінку 324, виставлену алгоритмом SafeRent. Цей інструмент, що використовує штучний інтелект, не пояснив, як була розрахована оцінка або що вона означає. Просто було рекомендовано відхилити заявку, оскільки результат був занизьким.
Про це розповідає ProIT
Мері, яка працює охоронцем, подала заявку на оренду житла у передмісті Массачусетса. Незважаючи на низький кредитний рейтинг, у неї була позитивна рекомендація від орендодавця за 17 років та ваучер для малозабезпечених орендарів. Проте в травні 2021 року їй повідомили, що комп’ютерна програма відхилила її заявку через недостатній бал (443 та вище).
«Мері, ми шкодуємо повідомити, що сторонній сервіс, який ми використовуємо для перевірки потенційних орендарів, відхилив вашу заявку», — йшлося в листі.
Судовий процес проти SafeRent
В 2022 році понад 400 темношкірих та латиноамериканських орендарів, включаючи Луїс, об’єдналися, щоб судити SafeRent за дискримінацію. Вони стверджували, що алгоритм несправедливо занижував оцінки орендарів, які використовують ваучери, у порівнянні з білими заявниками.
У результаті компанія SafeRent погодилася виплатити $2,3 мільйони та припинити використання оцінок для орендарів з ваучерами на п’ять років. Хоча SafeRent офіційно не визнала провини, такий крок є рідкісним для технологічних компаній.
Виклики AI у житті людей
Звіти свідчать, що значна частина американців з низьким доходом зазнала впливу алгоритмічного ухвалення рішень у різних сферах життя. Незважаючи на те, що закони, які регулюють використання AI, обмежені, судові позови, такі як випадок Луїс, можуть стати важливим інструментом для досягнення справедливості.
Юридичні експерти попереджають, що без належного регулювання компанії можуть знайти обхідні шляхи або створити схожі продукти, які не підпадають під дію судових рішень.