/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F4f84133487b79dc775e3a426681d9f43.jpg)
Може пробити людський череп. Колишній інженер Figure AI заявив, що у робота компанії є небезпечні можливості
У США подали позов проти виробника гуманоїдних роботів Figure AI. Колишній керівник відділу безпеки Роберт Ґрюндель стверджує, що компанія звільнила його після того, як він попереджав керівництво про небезпечні можливості роботів.
Позов подано в Каліфорнії. У документі вказано, що кілька днів перед звільненням Ґрюндель передав керівництву «найбільш прямі й задокументовані зауваження щодо безпеки».
У позові йдеться, що він попередив CEO Брета Едкока та головного інженера Кайла Едельберґа про те, що роботи компанії «достатньо сильні, щоб зламати людський череп». Як приклад він навів випадок, коли робот нібито «прорізав щілину у 6 міліметрів на металевих дверцятах холодильника під час збою».
За словами Ґрюнделя, його зауваження «сприймалися як перешкода, а не як обов’язок». Йому повідомили про звільнення через «незрозумілу зміну бізнес-курсу».
У коментарі CNBC представник Figure заявив, що інженера звільнили «через низьку результативність» і що його твердження є неправдивими. У листі компанія додала, що «спростує ці звинувачення в суді».
Ґрюндель просить суд призначити компенсацію, покарання для компанії та розглянути справу присяжними. Його адвокат Роберт Оттінґер сказав CNBC, що закони Каліфорнії «захищають працівників, які повідомляють про небезпечні практики». Він також наголосив, що ця справа може бути «однією з перших, пов’язаних із безпекою гуманоїдних роботів».
Позов подано через два місяці після того, як вартість Figure AI зросла до 39 мільярдів доларів у новому раунді інвестицій. Це у 15 разів більше, ніж на початку 2024 року. Серед інвесторів компанії раніше були Джефф Безос, Nvidia та Microsoft.
У скарзі також стверджується, що компанія «скоротила» підготовлений Ґрюнделем детальний план безпеки для двох великих інвесторів. Позов припускає, що виключення ключових елементів із документа, який став одним із факторів для інвестицій, може бути «сприйнято як шахрайство».
Інженер зазначив, що просив керівництво не «спрощувати» дорожню карту з безпеки, але після отримання інвестицій його побоювання ігнорували. У позові йдеться про робочу культуру, де «піднімати питання безпеки було небажано».
Скаргу першою опублікувала журналістка CNBC Лора Колодні. Вона підкреслила, що у сфері гуманоїдних роботів зростає занепокоєння через фізичні ризики, які можуть виникати при збоях роботи машин.
Хоча гуманоїдні роботи ще на початковому етапі розвитку, інциденти з промисловими роботами відбувалися десятки років. Наприклад, у 2015 році у Німеччині на заводі Volkswagen загинув працівник, а один із перших смертельних випадків, пов’язаних із роботом, стався у Японії у 1981 році.
Один із більш відомих інцидентів трапився у 2021 році на заводі Tesla в Остіні, де роботизована рука травмувала інженера, який працював поруч.
Схожі суперечки раніше виникали й в інших компаніях. Наприклад, у 2020 році дослідниця етики ШІ Тімніт Ґебру заявила, що її звільнили після попереджень про ризики великих мовних моделей. Також протягом багатьох років інженери Boeing звинувачували компанію в тому, що вона не реагувала на попередження щодо системи керування польотом у 737 MAX.
Позов проти Figure AI показує, як безпекові дискусії зміщуються від ризиків програмного забезпечення до питань взаємодії сильних фізичних машин із людьми. Суд має визначити, чи мали місце порушення безпеки та чи було звільнення інженера помстою за його зауваження.