
Искусственный интеллект уже стал неотъемлемой частью жизни почти каждого из нас. Нейросети используют сейчас практически во всех сферах, но важно понимать, что это инструмент новый, а правила игры старые и, если их нарушить — даже в цифровом пространстве — наказание неотвратимо.
Так, в начале недели в социальных сетях появилась новость о пожаре в торговом центре — как сообщили в МЧС, эта новость оказалась фейком.
Так как отличить реальность от её виртуальной версии и какое наказание грозит цифровым художникам? Мнения экспертов у Вадима Вольского. Искусственный интеллект сегодня — наш главный цифровой помощник. Пока мы записываем этот кадр, нейросети обрабатывают гигантские массивы данных, берут на себя рутинные задачи и облегчают работу программистам. Освобождая время для творчества и по-настоящему важных решений.В создании проектов, режиссёру — Степану Тугову помогают нейросети. Прямо в монтажной программе можно исправить неточности и ошибки.
«То есть можно убирать шумы различные, которые невозможно просто так убрать или какие-то косяки, проблемы при съёмке происходили. Предположим, мы снимали изображение FULLHD, либо в ещё более низком качестве и нам нужно наоборот эту картинку растянуть и сделать больше. И сейчас искусственный интеллект позволяет дорисовать пиксели, тем самым, улучшая качество картинки», — рассказал режиссёр видеоконтента — Степан Тугов.
Одно из самых массовых применений нейросетей, помимо написания текстов и поиска информации-оживление фотографий или генерация видео по прописанным задачам.
Даем задачу — как люди на фотографии должны вести себя — пара минут и те, кого с нами нет – буквально оживают, путь и на пару мгновений.
Огромную популярность в сети набирает клип, в котором полностью сгенерировано и видео, и музыка — на слова известной детской песни.
Искусственный интеллект совершенствуется ежедневно — делает то, на что людям требовались месяцы и годы. Применяется в разных сферах от медицины и логистики до перевода на сотни языков.
Однако, у технического прогресса есть и обратная сторона. Стремительное развитие нейросетей породило эпоху идеальной лжи. Главный вопрос сегодня: сможем ли мы управлять интеллектом, который уже начинает думать быстрее своих создателей.
На этих фото — над «Корстоном» сгущаются черные клубы дыма, стоят пожарные машины, а люди выходят из здания. Но на официальных сайтах МЧС Республики, где информация появляется оперативно — о пожаре ни слова. Как выяснилось, это ЧП- не более чем фейк. Это же подтвердили и сотрудники торгового центра.
«В телеграмм-каналах читал, что у вас здание горело, — Сам читал, что здание в огне. Все выскочили – ничего нет, — А пожарные кто-то приезжал что ли? – Нет, никого не было”, — сообщил в диалоге охранник торгового центра.
И это не единичный случай.
В октябре прошлого года сети всколыхнуло видео – косолапый расхаживает по Царево, что тогда вызвало панику среди местных жителей. Или якобы погоня за машиной, которая развалилась пополам на ходу. Все это работа нейросетей. И неизвестных анонимных пользователей, которые вбрасывают такие видео в соцсети.
Эти видео шуточные, но, когда речь идёт о предполагаемой опасности – создателям такого контента должно быть не до смеха. За такие забавы грозит ответственность не только финансовая, но и уголовная.
«Штрафы могут доходить от 30 тысяч рублей до 5 миллионов рублей, в зависимости от статьи. Если же распространенная фейковая информация привела к серьёзному ущербу или если по неосторожности наступила смерть человека или иные тяжкие последствия – нарушителю грозит уголовная ответственность. Наказание может дойти до срока до 5 лет», — прокомментировал юрисконсульт первой категории ФГУП ВГТРК «ГТРК-Татарстан» — Кирилл Рачков.
Как отмечают специалисты, уже и сам искусственный интеллект может подтасовывать факты и менять реальность.
«Галлюцинации искусственного интеллекта. То, что он нам может теперь уверенно врать, выдумывая факты или законы. Это опасно, когда мы используем выводы искусственного интеллекта без проверки, или галлюцинации, связанные с поведением, когда искусственный интеллект может нам насоветовать что-то вредное», — заявил руководитель отдела разработки программных интерфейсов, ИИ и анализа данных, резидент ОЭЗ «Иннополис» — Вадим Кондаратцев.
Эксперты утверждают, что в ближайшие годы – тенденция продолжится- отличитьреальных людей от сгенерированного видео- будет почти невозможно. Главная угроза — это возникающий кризис доверия. И дипфейки — это только вершина айсберга.
«То есть, мы больше не можем использовать видеозаписи или аудиосообщения, чтобы доказывать что-либо, например, в суде или в новостях. Нам придётся перестраиваться по отношению к тому,какой информации мы можем доверять», — продолжил руководитель отдела разработки программных интерфейсов, ИИ и анализа данных, резидент ОЭЗ «Иннополис» — Вадим Кондаратцев.
В Китае c 1сентября прошлого года — разработчики должны помечать, что материал сгенерирован нейросетью. В Госдуме России рассматривают законопроект о введении ответственности за использование подмены голоса или лица. Определить, где настоящее, а где искусственное становится все сложнее, а потому эксперты советуют — единственный способ не попасть с иллюзорные сети сейчас — перепроверять любую поступающую информацию в интернете, и опираться на официальные источники.
Свежие комментарии