Опасность искусственного интеллекта для общества оценили

Специалист по кибербезопасности Владимир Ульянов заявил, что одна из главных опасностей искусственного интеллекта состоит в том, что нейросети становятся способны генерировать все более качественный контент, в том числе, новостные сообщения, научные работы, ввиду чего возрастает риск распространения фейков.

Одна из главных опасностей искусственного интеллекта для общества состоит в том, что нейросети становятся способны генерировать все более качественный контент, в том числе, новостные сообщения, научные работы, ввиду чего возрастает риск распространения фейковой информации. Об этом в разговоре с «Лентой.ру» заявил специалист по кибербезопасности Владимир Ульянов.

«Опасения о том, что ИИ выйдет из-под контроля и начнет совершать деструктивные действия беспочвенны, потому что у него должны быть полномочия и возможности подобного рода, так что ограничения в этом вопросе должны касаться разработчиков. Единственное, в чем я вижу опасность, и почему, возможно, стоит ограничивать его использование, это то, что сейчас нейросети могут использоваться для создания разных текстов, научных статей, новостей», — сказал Ульянов.

Он объяснил, что, чем больше контента генерирует ИИ, тем сложнее понять, был ли он создан человеком. Кроме того, подобные тексты будут хорошо индексироваться поисковиками и активно распространяться.

«Чем больше распространяется информация, тем сложнее понять, кем она создана, насколько реальна. Могут появляться фейковые инфоповоды», — допустил специалист.

Ранее сообщалось, что итальянское управление по защите персональных данных первым в мире ввело временное ограничение на использование чат-бота ChatGPT. Причиной стало нарушение законодательства об использовании персональных данных.

Загрузка ...