![]() |
1 ноября 2021
|
П_Пашкевич
BrightOne Дело не в безобидности. Дело в том, что у него могут быть иная логика (я не о математике, а о расстановке приоритетов) и иное целеполагание. Да запросто. Но тут уж ничего не поделать: ИИ-технологии в любом случае будут развиваться, причем, вероятно, в экспоненциальной динамике. Поэтому способ решить проблему из серии "запретить ИИ" - не катит, им просто не воспользуются. Остается два основных варианта. За первый топит упомянутый Юдковски: бросить все силы на создание дружественного ИИ, который в дальнейшем и будет гарантией контроля. Я не уверен в успешности этого проекта и наряду со многими другими мейнстримными трансгуманистами отдаю предпочтение второму подходу: глубокая интеграция ИИ в человека. Впрочем, инициативы Юдковского тоже не помешают. Думаю, нам следует развивать оба направления - так у нас будет больше шансов на выживание. |