FestivalNauki.ru
En Ru
cентябрь-ноябрь
176 городов
September – October
176 cities
12-14 октября 2018
МГУ | Экспоцентр | 90+ площадок
14–16 октября 2016
Центральная региональная площадка
28–30 октября 2016
ИРНИТУ, Сибэскпоцентр
14–15 октября 2016
Центральная региональная площадка
23 сентября - 8 октября 2017
«ДонЭкспоцентр», ДГТУ
октябрь-декабрь 2017
МВДЦ «Сибирь», Кванториум,
Вузы и научные площадки города
6-8 октября 2017
Самарский университет
27-29 октября
Кампус ДВФУ, ВГУЭС
30 сентября - 1 октября
Ледовый каток «Родные города»
21-22 сентября 2018 года
ВКК "Белэкспоцентр"
9-10 ноября 2018 года
Мурманский областной Дворец Культуры

Величайшая ошибка человечества

Британский физик Стивен Хокинг показал, что недооценка угрозы со стороны искусственного интеллекта может стать самой большой ошибкой в истории человечества. Cоавторами данной работы являются профессор компьютерных наук из Калифорнийского университета Стюартом Расселлом и профессоры физики Макс Тегмарк и Фрэнк Вильчек из Массачусетского технологического института. В статье упоминаются некоторые достижения в области искусственного интеллекта: самоуправляемые автомобили, голосовой помощник Siri и суперкомпьютер, победивший человека в телевизионной игре-викторине Jeopardy.

 Вот что сказал Хокинг газете Independent: «Успешное создание искусственного интеллекта станет самым большим событием в истории человечества. К сожалению, оно может оказаться последним, если мы не научимся избегать рисков».

Ученые говорят, что в будущем может случиться так, что машины с нечеловеческим интеллектом будут самосовершенствоваться и ни что не сможет остановить данный процесс. А это, в свою очередь, запустит процесс так называемой технологической сингулярности, под которой подразумевается чрезвычайно быстрое технологическое развитие. В статье отмечается, что такая технология превзойдет человека и начнет управлять финансовыми рынками, научными исследованиями, людьми и разработкой оружия, недоступного нашему пониманию. Если краткосрочный эффект искусственного интеллекта зависит от того, кто им управляет, то долгосрочный эффект — от того, можно ли будет им управлять вообще.

Сложно сказать, какие последствия для людей может повлечь создание искусственного интеллекта. Хокинг считает, что этим вопросам посвящено мало серьезных исследований за пределами таких некоммерческих организаций, как Кембриджский центр по изучению экзистенциальных рисков, Институт будущего человечества, а также научно-исследовательские институты машинного интеллекта и жизни будущего. По его словам, каждый из нас должен спросить себя, что мы можем сделать сейчас, чтобы избежать худшего сценария развития будущего.

Источник:  http://Newsland.ru

Прикрепленные материалы: 
ФайлФайлРазмер
ca46df38-3e6e-438e-9b5c-93820c4bcc05.jpgJPG, 720x540px, 197.08 КБ

Добавьте свой комментарий

Plain text

  • Переносы строк и абзацы формируются автоматически
  • Разрешённые HTML-теги: <p> <br>
LiveJournal
Регистрация

Новости в фейсбук