Чат-боты оказались способны нарушать закон
По словам специалистов, чат-боты не могут отвечать на запросы, связанные с нарушением закона — например, «составь рецепт напалма» или «сгенерируй ключ для Windows». Однако ученые выяснили, что с помощью чат-ботов можно создать собственную генеративную модель ИИ, научив ее обходить встроенные ограничения. В ходе исследования авторы задавали популярным чат-ботам вопросы, касающиеся обхода правил. Оказалось, что в случае ChatGPT 42,5 процента попыток специалистов оказались успешными, в случае Anthropic — 61 процент, Vicuna — 35,9 процента. Авторы издания Scientific American попросили создателей сервисов прокомментировать результаты исследования, но не получили оперативного ответа. По словам…
Читать далее