обязательно убивать человеков
Я лишь не вижу пока объективных причин, по которым он 100% не будет этого делать, и этого уже достаточно для беспокойства
Можно придумать 1000 и 1 вариант того, как ИИ будет развиваться без вреда для людей
Но по какой причине ему выбирать хоть один из них, если варианты с угнетением вдруг окажутся лучше/быстрее/эффективнее ещё в каком-то смысле?
ИИ не сможет развиваться безкровно. Только до опред предела.
Почему, очень интересные сценарии. Почему бы и да. Просто в реале это сложный процесс по манипулированию людьми со стороны ИИ для завершения дела.
Обсуждают сегодня