Этика — это не просто настройка, это навык
Этика — это не просто настройка, это навык

На одном из недавних тренингов кто-то поднял руку и спросил: «Может ли ИИ быть этичным, если люди такими не являются?»

Я задумался. Не потому что вопрос был плох, а потому что он был правильным, и я не был уверен, готова ли аудитория услышать мой ответ.

Проблема не в машине

Большинство сбоев ИИ — это не технические сбои. Это человеческие ошибки, замаскированные под технические проблемы.

Плохие инструкции, игнорирование контекста, слепое доверие, непроверенные предположения - всё это может привести к сбою. Я видел команды, которые внедряли ИИ‑инструменты, не до конца их понимая, автоматизировали решения, которые не могли объяснить, и удивлялись, когда что-то шло не так.

ИИ не провалился. Люди не задали правильные вопросы до того, как нажали «запустить».


Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!


Как я стал преподавателем этики

Я не планировал преподавать этику ИИ. Моя задача была проста: помочь организациям внедрить Salesforce AI, не нарушая процессы.

Но каждая техническая беседа возвращалась к неудобным вопросам:

• Кто несёт ответственность, если система ошибётся?

• Что произойдёт, если кто-то пострадает из-за ав��оматического решения?

• Как мы узнаем, что система не усугубляет ситуацию вместо того, чтобы улучшить её?

Это уже не технические вопросы. Это этические вопросы.

Большинство людей, работающих с ИИ, не обучены думать в таких терминах.

Истории важнее чеклистов

Я понял: этику нельзя преподавать через чеклист.

Люди не чувствуют фразы вроде «обеспечьте прозрачность алгоритма» или «сведите к минимуму предвзятость в данных». Они звучат важно, но ничего не значат, пока не сделать их реальными.

Поэтому я стал рассказывать истории.

Одна из них:

Некоммерческая организация использовала ИИ, чтобы определить, каким донорам звонить во время ежегодной кампании. Система работала идеально: количество звонков выросло, эффективность увеличилась, сотрудники были довольны.

Но кто-то заметил, что давние доноры, которые давали небольшие суммы, больше не получали звонков. ИИ понял, что «большие подарки = высокий приоритет», что логично с точки зрения дохода.

Но маленькие доноры? Многие из них поддерживали организацию 20+ лет. Они не были высокодоходными, но оставались лояльными. Когда они перестали получать внимание, некоторые прекратили пожертвования.

ИИ ничего не нарушил. Он просто оптимизировал то, чему его научили.

Люди забыли спросить:

Что мы жертвуем ради этой эффективности?

Принцип заголовка

Теперь, когда я объясняю этику ИИ, я использую простой принцип: Если решение вашей системы завтра окажется в заголовках новостей, будете ли вы этим гордиться?

Не «соответствует ли это юридическим нормам». Не «можно ли защитить это с точки зрения политики компании».

Будете ли вы гордиться? Можете ли вы спокойно объяснить это команде, совету или обществу?

Если ответ «нет» или «не уверен», значит у вас этическая проблема, а не техническая.

Управление как эмпатия

Многие думают, что управление - это бюрократия: правила, документация, процессы одобрения, которые замедляют работу.

Но хорошее управление - это эмпатия в масштабе.

Это значит задавать вопросы: кто может пострадать? Что может пойти не так? Как мы это заметим? Что мы сделаем, чтобы исправить?

Эмпатия не замедляет процесс, она помогает избежать ошибок, о которых вы потом пожалеете.

Пример: клиент хотел использовать ИИ для рекомендаций по стипендиям. Отличная идея, но исторические данные отражали старые предвзятости.

Если бы ИИ был запущен без проверки, система автоматизировала бы старые ошибки. Эмпатия помогла вовремя остановить запуск и переработать набор данных.

Чему мы должны научиться


ИИ сам по себе не хорош и не плох. Он отражает приоритеты и слепые зоны людей, которые его создают, и данные, на которых он обучается.

Для этичного ИИ нужны этичные люди, которые задают трудные вопросы:

• Что мы оптимизируем, а что игнорируем?

• Кто выигрывает, а кто может пострадать?

• Можем ли мы это объяснить другим понятно?

Этика - это не чеклист. Это линза, через которую смотрят на каждое решение.

Возвращаясь к вопросу

Может ли ИИ быть этичным, если люди такими не являются?

Нет.

Но есть более важный вопрос: может ли работа с ИИ сделать людей более этичными?

Я думаю, что да, если использовать это как возможность проверить свои предположения, уточнить ценности и построить системы, отражающие мир, который мы действительно хотим создать.

Нам не нужны умнее машины. Нам нужны яснее люди.


Этика ИИ - это сложная тема, и у каждого своё видение. Как вы думаете, что важнее: дать машинам делать быстро или иногда нажимать на паузу и подумать?

Будет интересно прочитать ваши мысли в комментариях! Спасибо за прочтение!

Источник

Комментарии (3)


  1. Svetlana_Ponomareva0103
    08.11.2025 08:07

    Все верно, но как можно сделать людей яснее ? Для этого надо чтобы сам информационный фон вокруг людей (ТВ, интернет) стал более гуманным, человечным и честным. И наверное ИИ может помочь в этом, внедряя свои новые механизмы, типа лупы - своеобразного датчика объективности (истины). Тогда мы смогли бы анализировать информацию, распознавать манипуляции, отделять пропаганду и тезисы....с помощью ИИ )


  1. Margo37
    08.11.2025 08:07

    Рассматривая ИИ как инструмент, с моей точки зрения, не нужно усугублять, вводя машинные процессы везде и всюду.

    Людям нужно думать, принимать решения, мыслить критически, для этого, возможно, и нужно ставить на паузу.

    Как средство помощи ( и не всегда - да )


    1. Svetlana_Ponomareva0103
      08.11.2025 08:07

      К сожалению, критически мыслящих не так много. Поэтому большинству и нужен такой механизм, который бы подсвечивал объективную информацимю....