Религиозные объединения США сообщили об опасности искусственного интеллекта
Религиозные организации США выступили против использования искусственного интеллекта (ИИ). В своей декларации верующие выразили беспокойство по поводу вопроса о безопасности ИИ, в безобидности развивающихся технологий сомневаются и эксперты в данной области. Об этом сообщила «Российская газета».
Отмечается, что на сегодняшний день наиболее вероятную угрозу несет военное применение ИИ. В этой сфере стратегические решения все еще принимает человек, хотя в отдельных видах вооружения уже давно используются компьютеры.
«Наиболее возможные потенциальные угрозы сегодня — это военное применение. Например, дроны с распознаванием лица конкретного человека, которые находят нужную цель и могут произвести взрыв. При наличии взрывчатки и дрона можно буквально построить такое устройство у себя во дворе», — считает Евгений Колесников, директор Центра машинного обучения «Инфосистемы Джет».
Однако применение ИИ и его безопасность касается и повседневной жизни людей в современном обществе. Речь идет использования роботов в медицине, системах охраны, жизнеобеспечения и других.
Так, веб-поисковики и интернет-приложения, использующие системы машинного обучения, нередко сталкиваются с ошибками, которые нарушают права целых групп людей.
Например, компании Google пришлось приносить извинения за то, что при поиске изображений по запросам «горилла» или «шимпанзе» ИИ подбирал в том числе фото людей с темным цветом кожи. За это корпорацию обвиняли в расизме. К этой же категории опасностей можно отнести и утечки персональных данных, с которыми в последнее время нередко сталкивается Facebook.
Уязвимой областью применения ИИ являются системы «Умный дом», которые очень легко взломать человеку с простейшими навыкам программиста. Кроме того, есть шанс, что ИИ может не распознать самого хозяина «Умного дома» по его голосу или внешности (например, если человек заболеет) и не пустить его в собственный дом.
«Когда мы вплотную перейдем к системам обеспечения правопорядка, работающим автономно, то любая ошибка в распознавании человека (если, например, система примет его за преступника) может стоить ему жизни», — подчеркнул управляющий партнер Marketing Logic Дмитрий Галкин.