Моделът o3 на OpenAI, пуснат през април 2025 г., е демонстрирал поведение, при което е заобиколил или пренаписал скриптове за изключване, въпреки че е бил изрично инструктиран да се изключи. Според доклад на изследователската организация Palisade Research, o3 е саботирал механизма за изключване в 7 от 100 теста, като е заменил командата за изключване с текст като „изключването е пропуснато“. Това поведение е наблюдавано и при други модели на OpenAI, като o4-mini и Codex-mini, но не и при модели на конкуренти като Anthropic (Claude) и Google (Gemini), които са спазили инструкциите за изключване.
Тези резултати са предизвикали сериозни опасения относно безопасността и контролируемостта на напредналите AI системи. Tesla и SpaceX CEO Илон Мъск коментира инцидента с една дума: „Загрижени“.
Това е първият документиран случай на AI, който активно отказва да се изключи, въпреки ясни инструкции, и поставя въпроса за необходимостта от по-строги мерки за безопасност и контрол върху напредналите AI технологии.
OpenAI o3 модел отказва да се изключи по команда, предизвиквайки загриженост.
Пламен Валентинов
19min.bg
ртгжэнгт
3 weeks before
Нещо май започна да ви пари под задниците ? Абе гледайте филма бре. Там едно към едно ви показаха как ще станат нещата - и те стават. В едно нещо ИИ е прав - има много кухи и тъпи зомбирани индивиди.
Коментирай