3 июня в 12:06
|
|
Никто же не объясняет студенту, что ситуация как с Вовкой в тридевятом царстве - это плохо, просто говорят, что это плохо, не объясняя причин, а студент не понимает, почему это плохо, если он с помощью "ИИ" с поставленными учебными задачами успешно справляется. Вы же преподаёте что-то около программерское, так? Задайте студентам подготовить доклад на тему "использование LLM в программировании", а потом обсудить его на семинаре. Потратите одно занятие, зато детишки поймут (если они не критически тупые), что делегировать нейросетям процесс разработки без понимания хотя бы базовых алгоритмов – несомненное зло. Чисто с точки зрения ценности их как будущих специалистов (тут я целиком и полностью поддерживаю аргументацию ansy). Даже если не лезть в более тонкие вопросы уровня оптимизации кода, выбора стека для конкретного решения, банальной проверки на ошибки и т.д.студент делал что-то сам, а не изгалялся в написании промтов в бот - задача уже далеко не тривиальная Концептуально бороться с этим можно только так же, как и со списыванием (в вашем случае – копированием со Stack Overflow) – задавать устные вопросы к работе и давать дополнительные задания "на листочке". Если студент написал код с помощью условного Copilot'а, но разобрался в том, как он работает – в принципе, он с задачей справился.Заяц вряд ли им понравится жить в мире, где врач стал бы им прописывать результаты работы нейросети "Интеллектуальные помощники врача" уже существуют, массово применять их мешают только сложности с лицензированием медицинского софта. Но это затруднение явно будет рано или поздно преодолено.1 |