Google отказалась от обещания не использовать ИИ для разработки оружия
:format(webp)/aHR0cHM6Ly9zdG9yYWdlLjM2MC5ydS9hcnRpY2xlcy9pbWFnZS8yMDI1LzIvZGlnaXRhbC1hcnQtYWktdGVjaG5vbG9neS1iYWNrZ3JvdW5kLTIzLTIxNTE3MTk1OTQuanBn.webp?w=1920)
Корпорация Google удалила абзац под заголовком «Приложения ИИ, которые мы не будем развивать» из принципов разработки искусственного интеллекта. В тексте шла речь о «технологиях, которые наносят или могут нанести общий вред», в том числе и об оружии, сообщило агентство Bloomberg.
Из текста пропала формулировка, предписывающая избегать применения искусственного интеллекта в потенциально опасных для человека целях.
Издание попросило Google прокомментировать ситуацию. В ответ на это пресс-служба прислала ссылку на размещенное 4 февраля в блоге корпорации заявление.
В нем топ-менеджеры Google выразили мнение, что люди, разделяющие такие ценности как свобода, равенство и уважение прав человека, должны вместе разработать ИИ, который «защищает людей, способствует глобальному росту и поддерживает национальную безопасность».
Ранее Google заподозрили в нарушении Антимонопольного закона в Китае. Государственное управление по регулированию рынка КНР начало расследование в отношении американской корпорации.