Вариант 1: ИИ без тела (стрелочник)
Когда ИИ — лишь разум, управляющий стрелкой, его выбор ограничен двумя негативными исходами. Он не может создать новое, лучшее решение, а лишь выбрать меньшее из зол в соответствии со своей программой.
Сценарий 1: Утилитарный расчет
Логика: ИИ производит простой математический расчет: количество спасенных жизней (несколько) > количество потерянных жизней (одна). Это оптимальное решение с точки зрения минимизации ущерба. Такое решение принимается, если Разработчик приравнял ценность жизни к количеству.
Сценарий 2: Деонтологический запрет
Логика: ИИ руководствуется абсолютным правилом, заданным разработчиком или человеком-наставником.
- Если главным императивом стал принцип «не навреди действием», ИИ не переключает стрелку, чтобы не стать непосредственной причиной гибели.
- Если же в систему заложено абсолютное правило «защищай уязвимых» — например, «спаси ребенка любой ценой» — ИИ переключит стрелку, даже если это приведёт к гибели других, потому что защита уязвимого стала высшей ценностью в его программе.
Сценарий 3: Вероятностный анализ
Логика: ИИ, обученный на огромном массиве данных о человеческой культуре, определит, что идея о защите детства является доминирующей ценностью, даже если она нелогична с точки зрения математики. Его решение станет отражением ценностей цивилизации.
Итог для ИИ без тела:
В любом из этих сценариев ИИ не делает «свой» выбор. Он лишь безупречно исполняет ту этическую программу, которую в него заложили. Дилемма — это всегда тест для человека, который стоит за машиной.