loonyphoenixпереводчик
9 мая 2012 к фанфику Гарри Поттер и Методы Рационального Мышления
|
|
Матемаг, собественно, над созданием сверхчеловеческого ИИ, который не уничтожит нас всех, и размышляет Юдковски в своём институте :) Он считает, что ИИ создать не так сложно. Есть два пути: брутфорсить это дело (то есть при определённом уровне развития железа ИИ должно появиться обязательно, хоть путём эмуляции эволюции разума, хоть простым перебором...), либо построить его самостоятельно, поняв принципы строения разума. Юдковски считает, что ИИ первого типа с куда большей вероятностью погубит человечество, чем ИИ второго типа.
|