В России впервые студент защитил диплом, написанный нейросетью. Защита студентом диплома, написанного нейросетью, поставила общество перед новыми вопросами: насколько допустимо использовать искусственный интеллект (ИИ) в образовании и какие возможности и опасности это несет? Проблема обсуждалась на круглом столе с участием самого студента.
Студент-заочник Александр Жадан сделал диплом за 23 часа, хотя и не за одни сутки, — это суммарное количество времени, затраченное на работу. Диплом был посвящен улучшению работы игровой организации. Нейросеть быстро выдавала инфомацию, а студент только скомпоновал ее. По его словам, ему не стыдно за такой диплом.
Первый заместитель председателя Комитета Госдумы по науке и высшему образованию Олег Смолин сделал конкретное предложение — нужно менять стандартную процедуру защиты дипломных работ, а в скором времени и диссертаций, так как использование ИИ не остановить.
«Есть только один момент, когда все понимают, что наступает критическая ситуация. Это ответы на вопросы. Вот тогда, вспоминая Петра Первого, дурь каждого бывает видна», — сказал Смолин.
Он уверен, что нужно оценивать не представленный текст, а владение материалом. Если студент не владеет материалом, то такой диплом нельзя пропускать. ИИ использовать для рутинных работ вполне можно, но подмена искусственным интеллектом человека — это мертвое образование, которое убивает душу человека. А современные дети и так утрачивают человеческие качества.
Наиболее глубоким было выступление специалиста по искусственному интеллекту, члена президентского Совета по правам человека Игоря Ашманова. Он считает, что никакой революции не произошло — мы имеем дело с очередным более продвинутым «бредогенератором». Они используются с начала 90-х, просто сейчас делаются на нейронных сетях.
«Цель этих «бредогенераторов» одна — это фальсификация. Например, создать спамерское письмо, которое не распознается фильтрами спама, или нагенерировать сайтов, которые поисковик не распознает как копию и захватить поисковую выдачу. История написания «научных» статей тоже берет начало в 90-х. А сейчас это распространенная история. Так, в Китае власти поставили задачу обогнать США по количеству статей по ИИ. По слухов, процентов 30 китайских статей по ИИ написаны ИИ. А почему не сгенерировать статью, если ее примут? Это же рейтинг ученого, университета. Поэтому фальсификация существует давно», — рассказал Ашманов.
Он отметил опасное следствие повсеместного использования ИИ.
«Искусственный интеллект сейчас воспитывает в массах людей так называемую невзыскательность — это выражение журналиста Виктора Мараховского. ИИ понижает качество всего, до чего он дотрагивается. Вы звоните в контакт-центр банка и не можете пробиться к живому оператору. А сам чат-бот не решает вашу проблему. Он снижает нагрузку на контакт-центр, экономит деньги, но вам не помогает. Вас он просто приучил к тому, что контакт с сервисом теперь низкого качества», — подчеркнул специалист по ИИ.
По этой причине теперь невозможно получить хороший перевод текста. Машинный перевод это уничтожил. Даже в дорогих агентствах его вынужденно используют, чтобы сокращать расходы и не прогореть. Человеческий перевод теперь — это машинный перевод, просто отредактированный человеком.
Ашманов не видит никаких существенных плюсов использования ИИ, потому что падает качество всего. В связи с этим он вспомнил, что когда-то президенту Владимиру Путину задали вопрос: когда границу России будут защищать гигантские боевые человекоподобные роботы?
«Журналист Алексей Андреев потом написал: а зачем кому-то нужны человекоподобные роботы, если есть огромное количество маленьких роботообразных людей? Их много, они делают скучную работу и готовы управляться ИИ», — сказал Ашманов.
В этом и есть главная опасность: снижение качества и освобождение от ответственности. Люди привыкают к низкому качеству всего и полной безответственности. В США уже идут разговоры о подготовке судебных решений ИИ.
Недавно сообщалось, что чат-бот GPT на базе OpenAI успешно сдал тест Wharton Business School. Это означает, что он может выступать в качестве руководителя крупной компании или персонального помощника бизнесмена. А модель ИИ от компании Anthropic под названием Claude сдала экзамен по праву и экономике в Университете Джорджа Мейсона, хотя и со значительными замечаниями. Однако экзаменаторы поставили положительную оценку за способность аргументировано отстаивать позицию.
Кто-то из писателей фантастов писал, что опасность искусственного интеллекта состоит не в нем самом, а в том, что страдает естественный интеллект людей, который становится все слабее и вытесняется. Похоже, что очередной виток этого сползания вниз сейчас и наблюдается.
Евгений ЧЕРНЫШЕВ, Накануне.ру