Aug. 22nd, 2015 07:20 am
Экзистенциальный риск ИИ
Достаточно разумный пост о ИИ, мои размышления над этой проблемой идут примерно в этом же направлении. Нет смысла создавать супер-ИИ по-сути бога, который будет пасти маленьких неразумных людишек. Или людям так нравится опека и чувство безопасности? Мой внутренний анархо-либертарианец с этим никогда не согласиться=)
Но есть смысл апгрейдить само человечество, например это уже вопрос времени, когда люди сольются с поисковыми системами и засчет них расширят свою память до всего интернета. Вопросы к поисковику будут формулироваться мысленно, и мгновенно будет приходить ответ на запрос, быстрее, чем наша биологическая память. Главное сохранить интернет свободным, например сейчас можно поддерживать фонд электронных рубежей.
Так, постепенно человечество превратится в единый организм, когда ты за доли секунды сможешь ознакомится со спектром мнений, их источниками и на основе этой информации составить собственное мнение. И если у тебя высокая репутация, твое мнение повлияет на мнение других.
Originally posted by
black_rnd at Экзистенциальный риск ИИ
Но есть смысл апгрейдить само человечество, например это уже вопрос времени, когда люди сольются с поисковыми системами и засчет них расширят свою память до всего интернета. Вопросы к поисковику будут формулироваться мысленно, и мгновенно будет приходить ответ на запрос, быстрее, чем наша биологическая память. Главное сохранить интернет свободным, например сейчас можно поддерживать фонд электронных рубежей.
Так, постепенно человечество превратится в единый организм, когда ты за доли секунды сможешь ознакомится со спектром мнений, их источниками и на основе этой информации составить собственное мнение. И если у тебя высокая репутация, твое мнение повлияет на мнение других.
Originally posted by
![[livejournal.com profile]](https://www.dreamwidth.org/img/external/lj-userinfo.gif)
Илон Маск и Стивен Хоккинг высказались на тему экзистенциального риска искусственного интеллекта. Пришло время высказаться и мне :)
Маск, Хоккинг и многие другие люди, считают что искусственный интеллект представляет собой страшную опасность для человечества и может привести к его исчезновению. Неудивительно, ведь когда мы говорим об ИИ, первым делом в голову приходит история с терминатором и матрицей, и мы сразу представляем себе выжженную землю и войну людей и машин. Такое представление называется "Generalizing from fiction evidence". Терминатор и Матрица не являются чем-то, что произошло в какой-то параллельной вселенной. Это выдумка, которая не выдерживает никакой критики. Нельзя брать подобные фильмы за основу при размышлении о будущем ИИ. По моему мнению, все будет совсем не так, как в кино.

( Read more... )
Маск, Хоккинг и многие другие люди, считают что искусственный интеллект представляет собой страшную опасность для человечества и может привести к его исчезновению. Неудивительно, ведь когда мы говорим об ИИ, первым делом в голову приходит история с терминатором и матрицей, и мы сразу представляем себе выжженную землю и войну людей и машин. Такое представление называется "Generalizing from fiction evidence". Терминатор и Матрица не являются чем-то, что произошло в какой-то параллельной вселенной. Это выдумка, которая не выдерживает никакой критики. Нельзя брать подобные фильмы за основу при размышлении о будущем ИИ. По моему мнению, все будет совсем не так, как в кино.

( Read more... )
Tags: