Одна из главных опасностей искусственного интеллекта для общества состоит в том, что нейросети становятся способны генерировать все более качественный контент, в том числе, новостные сообщения, научные работы, ввиду чего возрастает риск распространения фейковой информации. Об этом в разговоре с «Лентой.ру» заявил специалист по кибербезопасности Владимир Ульянов.
«Опасения о том, что ИИ выйдет из-под контроля и начнет совершать деструктивные действия беспочвенны, потому что у него должны быть полномочия и возможности подобного рода, так что ограничения в этом вопросе должны касаться разработчиков. Единственное, в чем я вижу опасность, и почему, возможно, стоит ограничивать его использование, это то, что сейчас нейросети могут использоваться для создания разных текстов, научных статей, новостей», — сказал Ульянов.
Он объяснил, что, чем больше контента генерирует ИИ, тем сложнее понять, был ли он создан человеком. Кроме того, подобные тексты будут хорошо индексироваться поисковиками и активно распространяться.
«Чем больше распространяется информация, тем сложнее понять, кем она создана, насколько реальна. Могут появляться фейковые инфоповоды», — допустил специалист.
Ранее сообщалось, что итальянское управление по защите персональных данных первым в мире ввело временное ограничение на использование чат-бота ChatGPT. Причиной стало нарушение законодательства об использовании персональных данных.