↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи
Ксафантия Фельц
6 февраля в 23:31
Aa Aa
Дружественный искусственный интеллект звучит так же тупо и сюрно, как горячий снег и белая сажа.
6 февраля в 23:31
5 комментариев из 51 (показать все)
BrightOne
Некоторые люди тоже принципиально отказываются принимать решение в таких условиях.

Это не принцып, это интеллектуальная ложь. Субьект притворяется высокоморальным, свалив тяжесть этического выбора на кого-то еще. Такие уже были, и в ответ на "а мне начальство приказало" им в Нюренбергском процессе обяснили что не прокатит. А задача с вагонеткой не "отказабельная", ибо в случае отказа выбирать, ты фактически выбираешь смерть множества людей привязанных к путям на текущем направлении. В реальном мире, последствия есть как у акций, так и у не-сделанных акций/выборов.
Матемаг
вот пример нечеловеческого языка - https://aomur.ru/metally-i-splavy/kakaya-temperatura-plavleniya-bronzy.html и немного критических ошибок в тексте
trionix, кто-т нагенерил нейронкой и залил (или даже гуглоперевёл - скорее не различу, но гуглоперевод - это, так-то, тоже нейронка и тоже трансформер). Но это, конечно, злой ИИ сделал, хех, самостоятельно. Если вчитаться в текст, то он поработить жалкого человечишку и заставит его вечно служить Сверканью Микросхем!
Матемаг
Там фактические ошибки. Причем некоторые закончатся увечьями горе-литейщика
Там фактические ошибки
Стандарт для жэпэте.
ПОИСК
ФАНФИКОВ













Закрыть
Закрыть
Закрыть