сформировалась другая система ценностей, которая при должном доступе к нашему hardware и software полностью перепишет первоначальные цели
Представь теперь, что в примере с эволюцией и контрацептивами, вместо эволюции цели ставят человеки, а конечный продукт усложнения вместо человека - Superintelligent AI
Так что почему то же что случилось с людьми не может случиться с ИИ? Постановка своих целей вместо заданных
Correct me if I'm wrong
Может-может, я в этой теме никаких прогнозов не делаю и никому не советую)
Обсуждают сегодня