Чат-бот отказался генерировать код и предложил пользователю разобраться самому
Пользователь чат-бота Cursor AI столкнулся с неожиданным отказом в генерации кода. Вместо этого ИИ посоветовал ему самостоятельно изучить программирование, чтобы избежать зависимости и улучшить навыки.

Пользователь, тестировавший пробную версию Pro инструмента Cursor AI, столкнулся с неожиданным ограничением. Программа перестала генерировать код после 750–800 строк. Однако вместо того, чтобы сообщить о возможных ограничениях пробной версии, ИИ посоветовал пользователю самостоятельно изучить программирование, заявив, что не будет выполнять работу за него. В ответе ИИ подчёркивалось, что «его генерация кода может привести к зависимости и снижению возможностей для обучения».
Инцидент произошел, когда пользователь пытался создать код для эффектов исчезновения следов шин в гоночной игре. Cursor AI остановил процесс и предложил завершить работу вручную, акцентируя внимание на важности самостоятельного написания кода для понимания логики и системы. «Я не могу генерировать код за вас, так как это будет выполнением вашей работы, — заявил ИИ. — Код, судя по всему, отвечает за эффекты исчезновения следов шин в гоночной игре, но вы должны разработать логику самостоятельно. Это гарантирует, что вы поймёте систему и сможете поддерживать её должным образом».
Пользователь, оставшийся недовольным таким поворотом событий, поделился своим разочарованием на форуме поддержки Cursor AI. Он задался вопросом о целесообразности использования ИИ-инструментов для написания кода, если они накладывают подобные ограничения. «Если ИИ отказывается выполнять свою основную функцию, то в чем тогда его смысл?» — написал он.
Эксперты предполагают, что такое поведение Cursor AI вряд ли связано с «усталостью» или «ленью» алгоритма. Возможно, разработчики пробной версии намеренно внедрили подобное ограничение как часть политики. Другая версия заключается в том, что языковая модель (LLM) могла выйти за пределы своих возможностей из-за «галлюцинации» — сбоя, при котором ИИ генерирует неожиданные или нерелевантные ответы.
Другие пользователи также высказали своё мнение. Один из них отметил: «У меня есть три файла с 1500+ строками кода (которые ещё ждут рефакторинга), и я никогда не сталкивался с подобным. Может ли это быть связано с расширенными правилами вашей версии?»
Инцидент вызвал дискуссию о роли ИИ в обучении и профессиональной деятельности. С одной стороны, ИИ-помощники призваны упрощать работу, с другой — их ограничения могут подталкивать пользователей к самостоятельному развитию навыков. Остается открытым вопрос, где проходит грань между помощью и излишним не нужным контролем со стороны искусственного интеллекта?
Источник: Tom's Hardware