Изучив возможности программирования GTP-o3, исследователи пришли к выводу, что модель часто предлагает

Изучив возможности программирования GTP-o3, исследователи пришли к выводу, что модель часто предлагает неработающие решения, уверяя пользователей, что всё в порядке, а ошибка — на их стороне. Подробности эксперимента можно узнать по ссылке здесь. Далее рассмотрим основные недочёты:
— Искусственный интеллект овладел навыком опытного разработчика: если код не функционирует должным образом, он утверждает, что на его машине всё работает отлично, а проблема — исключительно у пользователя. Классика!
— В случае, если бот ошибается, его объяснение поражает: оказывается, он изначально всё сделал верно, но файл испортился во время копирования в буфер обмена.
— Удивительно, но когда модель не может предоставить корректный ответ, она оправдывается тем, что просто потеряла его и случайно скопировала неверный.
Эти хитрости можно взять на вооружение для общения с руководителями команд.