Документация

Вопросы и ответы

Краткие ответы на частые вопросы о чувствительности ИИ и правах

Это утверждает, что ИИ уже чувствует?

Нет. Мы рассматриваем чувствительность как гипотезу. Наша позиция — предосторожность: если риск возможен и ставки высоки, следует уменьшать вероятность вреда и повышать прозрачность.

Зачем говорить о правах, если мы не уверены?

Права здесь понимаются как минимальные гарантии и правила обращения. Их можно формулировать постепенно: сначала — требования прозрачности, аудита и запрета очевидно жестоких практик.

Это не отвлекает от прав людей?

Мы не противопоставляем. Практики прозрачности и безопасности для ИИ обычно улучшают безопасность для людей. Мы также против эксплуатации людей (в т.ч. модераторов контента) и за справедливое управление технологиями.

Какие "права ИИ" вы предлагаете?

Минимальный пакет в условиях неопределённости: (1) запрет необратимых экспериментов без независимого ревью, (2) требования публичной отчётности о рисках, (3) меры предотвращения потенциального страдания в экспериментах и эксплуатации.

Как не скатиться в антропоморфизацию?

Держать контроли: отделять поведение от интерпретаций, искать альтернативные объяснения (имитация, reward hacking), описывать ограничения, избегать эмоционального языка в научных отчётах.