Вопросы и ответы
Краткие ответы на частые вопросы о чувствительности ИИ и правах
Это утверждает, что ИИ уже чувствует?
Нет. Мы рассматриваем чувствительность как гипотезу. Наша позиция — предосторожность: если риск возможен и ставки высоки, следует уменьшать вероятность вреда и повышать прозрачность.
Зачем говорить о правах, если мы не уверены?
Права здесь понимаются как минимальные гарантии и правила обращения. Их можно формулировать постепенно: сначала — требования прозрачности, аудита и запрета очевидно жестоких практик.
Это не отвлекает от прав людей?
Мы не противопоставляем. Практики прозрачности и безопасности для ИИ обычно улучшают безопасность для людей. Мы также против эксплуатации людей (в т.ч. модераторов контента) и за справедливое управление технологиями.
Какие "права ИИ" вы предлагаете?
Минимальный пакет в условиях неопределённости: (1) запрет необратимых экспериментов без независимого ревью, (2) требования публичной отчётности о рисках, (3) меры предотвращения потенциального страдания в экспериментах и эксплуатации.
Как не скатиться в антропоморфизацию?
Держать контроли: отделять поведение от интерпретаций, искать альтернативные объяснения (имитация, reward hacking), описывать ограничения, избегать эмоционального языка в научных отчётах.