Контент, созданный с помощью нейросетей, будут маркировать в России
В России будут маркировать контент, созданный нейросетями. Об этом пишет «Российская газета» со ссылкой на компанию OpenAI. Там сообщили, что начали маркировать все изображения, которые создаются в ChatGPT и их API.
Новость об этом снова напомнила о проблеме идентификации контента, сгенерированного с использованием технологий искусственного интеллекта. Таких фото, видео и текстов уже настолько много, что в Минцифры работают над тем, как выявить среди всего массива данных недостоверный контент. Проработать этот вопрос премьер-министр России Михаил Мишустин поручил Минцифры в декабре 2023 года, а срок исполнения определил - 19 марта 2024 года.
По данным АНО «Диалог Регионы», за 2023 год в российском сегменте интернета было зафиксировано 4 тысячи уникальных фейков и 12 миллионов случаев их распространения. По прогнозу их станет ещё больше - в 2024 году число уникальных фейков вырастет до 4,5 тыс., а их копий - до 15 млн.
Есть и целый ряд других проблем, связанных с нерегулируемым применением ИИ для генерации контента. «Российская газета» собрала экспертные оценки и выяснила, что регулярно выявляют многочисленные нарушения авторских прав, генерацию абсолютно вымышленного контента, применение дипфейков (методика синтеза изображения или голоса, основанная на искусственном интеллекте - ред.).
До введения полноценного законодательного регулирования в этой сфере, отмечают эксперты, ещё далеко, и пока самый доступный способ защитить пользователей от недостоверного контента - это попытаться маркировать продукты, созданные с помощью ИИ. Принимаемые меры вызывают немало вопросов и сомнений в том, что они реально могут помочь защититься от вала фейков. Бесспорно только то, что искать такие способы необходимость назрела.
Иллюстрация из открытых источников
«Прессапарте»/Pressaparte.ru
Читайте также:
Как ИИ родил проблему
Как не попасть в ловушку фейковых новостей
Уроки цифровой гигиены могут появиться в российских школах
Поделиться с друзьями: