Нечеловеческий фактор. Искусственный интеллект не сможет предугадывать преступления
Доцент ИТМО Кугаевских: ИИ невозможно научить предсказывать преступления
Ученые в Южной Корее создали модель искусственного интеллекта, способную предсказывать преступления с точностью 82%. Система учится на основе ранних видеозаписей, набора поведенческих факторов и статистики, сообщило издание Tech Xplore. Однако доцент университета ИТМО Александр Кугаевских в интервью 360.ru усомнился в том, что система действительно будет работать. По его словам, происходит подмена понятий.
«Саму технологию можно создать, но ее применимость в реальной жизни слишком затруднена, потому что сценариев социального взаимодействия между людьми очень много, и учесть все на этапе обучения нейронной сети — задача нетривиальная. Я думаю, что ее создать можно, применить нельзя», — пояснил эксперт.
По словам ученого, если «показать» нейросети видеозаписи преступлений и «учить» ее признакам правонарушений, то искусственный интеллект просто будет определять такие события.
«Это не предсказание, это классификация. Определение того, что происходит здесь и сейчас, в текущий момент», — подчеркнул эксперт.
Возможны ошибки, даже если нейросеть попытается по мимике человека определять его склонность к преступлениям.
Например, вас обрызгала машина. Естественно, вы злы, и если в данный момент вас фотографировать, то что будет с такой системой? Мне кажется, что, во-первых, здесь подмена понятия происходит, во-вторых, в реальной жизни такая система просто-напросто не сработает.
Александр Кугаевских
Другой собеседник 360.ru — адвокат Алексей Михальчик — отметил, что подобная тема многократно обыгрывалась фантастами. В частности, есть такой раздел науки — криминология, откуда можно почерпнуть «прогностические моменты».
По мнению эксперта, в случае с прогнозированием уличной преступности технологию можно применить.
«Довести до ума эту систему вполне реально», — заявил он.
Михальчик напомнил, что даже полицейских учат не только раскрывать преступления, но и предотвращать их. Уголовный кодекс сформулирован так, что человека можно привлечь к ответственности даже за подготовку к правонарушению.
Искусственный интеллект может не только помогать, но и вредить. Ранее в Италии временно ограничили доступ к нейросети ChatGPT из-за нарушения закона о персональных данных.