Час читання: < 1 хв.
Компанія Google переглянула свої принципи щодо використання технологій штучного інтелекту, виключивши пункт, що забороняє розробку ШІ для застосування у зброї.
Що ще відомо
Раніше принципи Google передбачали цілий абзац, в якому було зазначено, що компанія не розроблятиме технології, які можуть завдати загальних збитків, включаючи зброю. Тепер цього формулювання більше немає на сторінці.
Реклама
Представник Google прокоментував зміни, посилаючись на публікацію в корпоративному блозі, де йдеться:
«Ми вважаємо, що демократичні країни повинні відігравати провідну роль у розвитку ШІ, керуючись такими основними цінностями, як свобода, рівність та повага до прав людини. Компанії, уряди та організації, які розділяють ці цінності, повинні працювати разом, щоб створювати ШІ, який захищає людей, сприяє глобальному зростанню та підтримує національну безпеку».
Однак ця зміна викликала критику. Маргарет Мітчелл , яка раніше керувала групою з етики ШІ в Google, висловила стурбованість, заявивши, що це рішення перекреслить роботу фахівців з етики ШІ та активістів. Вона також зазначила, що відмова від цього принципу може призвести до розробки технологій, які потенційно використовуються для ліквідації людей.
Вперше Google заявила про свої етичні принципи після того, як її співробітники висловили протест проти контракту з Пентагоном , відомого як Project Maven. Цей проект передбачав використання алгоритмів комп’ютерного зору для аналізу даних із безпілотників. Тоді тисячі працівників підписали петицію з вимогою припинити участь компанії у військових проектах. В результаті Google не лише відмовилася від контракту, а й пообіцяла не брати участь у розробці зброї.