Как ИИ родил проблему
Искусственный интеллект может быть полезен для одних и стать большой проблемой для других. Главное понять – в какой категории хотите оказаться вы.
Нейросети с искусственным интеллектом, выдавая текстовые ответы на запросы граждан, формируют их, используя наиболее частые утверждения, популярные среди большинства людей. А так как множество людей ошибаются, заблуждаются, или просто говорят наугад от незнания правильных ответов, то ИИ будет всё равно выдавать эти версии за искомый результат. И таким образом мнение масс станет заменять истину, а это ведёт к большим проблемам. «Ученые выяснили, что чат-бот с искусственным интеллектом формирует свои ответы на наиболее частом утверждении, популярном среди большинства людей. ChatGPT (наиболее популярная нейросеть для работы с текстами, - ред.), обученный на огромном массиве данных, может непреднамеренно выдавать субъективные мнения или дезинформацию. И это вместо того, чтобы помочь человеку узнать объективную истину», – приводит слова доцента кафедры философии и права Пермского политехнического университета, кандидата философских наук Елены Середкиной ресурс naked-science.ru.
То есть ChatGPT в ответ на запрос будет генерировать правдоподобные ответы, а не заниматься поиском истины - у него нет для этого возможностей, как у человека, в том числе личного опыта, интуиции, чутья, эмоций, например, способности к эмпатии. Но немалая часть тех, кто получают от нейросети готовый текст, об этом вряд ли задумываются – им просто нужен быстрый готовый результат. Именно поэтому ChatGPT буквально за год – с ноября 2022 года, когда появился у пользователей, стал необычайно популярен у школьников, студентов, учащихся других обучающих систем во многих странах мира. С этой нейросетью и российские учащиеся стали «как орешки щёлкать» сочинения, эссе, рефераты, курсовые и дипломные работы.
Многие учителя и преподаватели, уже столкнувшиеся с таким участием ИИ в учёбе своих учеников, реально встревожены. «Это огромная проблема сейчас, когда искусственный интеллект помогает студентам писать курсовые и дипломные работы в массовом порядке. И вузы, и преподаватели оказались к этому не готовы. Почти любую тему, особенно в гуманитарных науках, искусственный интеллект выдает», - сказал председатель Высшей аттестационной комиссии (ВАК) при Минобрнауки РФ Владимир Филиппов на одной из пресс-конференций.
Противостоять валу студенческих и школьных работ, созданных нейросетью, очень сложно – визуально определить в работе роль ИИ преподаватель вряд ли сможет. В этом теперь не поможет даже известная «палочка-выручалочка» в таком поиске, как «Антиплагиат» - не справляется программа, нейросеть её обходит. Ещё сложнее научиться определять самостоятельность авторов статей в научных изданиях.
И в России, и в других странах отношение вузов и школ к нейросетям разное. В экзаменационную пору минувшего лета в университете французского города Нанси ректорат был вынужден отменить результаты экзамена сразу ста студентов, которые схитрили и доверили ChatGPT написание своих квалификационных работ. А Московский городской педагогический университет (МГПУ) наоборот первым в России официально разрешил своим студентам использовать искусственный интеллект для написания курсовых и выпускных работ. Такое решение объясняют тем, что студенты будут самостоятельно анализировать и проверять полученные с помощью ИИ данные. Но разобраться где истина от нейросети – процесс непростой. Тем более, по оценке самих студентов, которые уже попробовали работать и с ChatGPT, и с другими платформами – нейросеть кроме всего прочего часто ошибается, и нужно обязательно перепроверять и цифры, и иную фактуру, которая появляется в итоговом тексте, что также отнимает огромное количество времени. И возникает вопрос: зачем привлекать для написания работы искусственный интеллект, если потом проделывать работу по его перепроверке, равную времени обычного написания. Не легче ли сразу проделать самостоятельную работу по своей теме.
Но есть ещё и «главный негативный момент», как считает философ из Перми Елена Середкина: «Это, прежде всего, так называемая «академическая GPT-непорядочность», вид обмана, когда образовательные работы выполняются с помощью искусственного интеллекта, а учащиеся выдают их за свои. И здесь речь не столько о морали, сколько о том, что важные навыки и компетенции (работа с информацией, критическое ее осмысление, создание письменных текстов) не развиваются в достаточной мере». Философ напоминает слова клинического психолога Джордана Петерсона, что если вы хотите научиться думать, вам следует научиться писать. Навык создавать письменные тексты помогает развить у учащихся критическое мышление, логическое рассуждение, исследовательские навыки, развивает собственную точку зрения. Плюс знакомство с различными источниками и авторскими работами значительно увеличивает широту и глубину знаний. Искусственный интеллект действительно серьёзный скачок в развитии человечества, и может быть полезен тем, кто понимает, как правильно с ним работать, чтобы польза была реальной. А вот для тех, кто будут использовать его, как заменитель собственного разума, он может стать проблемой – и тут в группе риска как раз школьники и студенты.
Но, на наш взгляд, морально-этической стороне такого обмана нужно уделять как раз большее внимание, чем формированию профессиональных компетенций. Ибо профессиональные знания и навыки можно будет нагнать и после, а вот обман, возможность обхитрить всех, может навсегда поселиться в голове у выпускника школы или вуза, которому нейросеть поможет, не напрягаясь получить диплом об образовании.
Игорь ДОКУЧАЕВ
«Прессапарте»/Pressaparte.ru
Вам также может быть интересно:
«Это другой мир», но они его не увидят
Журналистов заменят Al тренеры? Новая медиапрофессия набирает популярность
Как не попасть в ловушку фейковых новостей
Поделиться с друзьями: