Новости    Библиотека    Байки    Ссылки    О сайте


21.10.2016

Стивен Хокинг рассказал об опасностях искусственного интеллекта

На открытии Центра по изучению интеллекта будущего при Кембриджском университете знаменитый британский физик Стивен Хокинг поделился своими прогнозами о последствиях создания мощного искусственного интеллекта (ИИ). По его мнению, это событие обернется для человечества либо максимальным благом, либо худшей из катастроф.

Стивен Хокинг
Стивен Хокинг

В случае позитивного сценария, как считает Хокинг, новые технологии позволят частично сгладить негативные стороны индустриализации. Например, ИИ может помочь справиться с болезнями, искоренить бедность и в целом преобразить нашу жизнь.

Вместе с тем, ученый обращает внимание на угрозы, которые таит в себе развитие искусственного интеллекта. Будучи мощным автономным оружием, он может использоваться для угнетения народных масс и привести к большим проблемам в экономике, предупреждает Хокинг.

Физик не исключает и возникновения конфликтов или даже восстания умных машин против человечества, если ИИ будет обладать способностью самосовершенствования. Чтобы эта технологическая революция не стала для нас последней, ученый советует держать все риски под пристальным контролем.


Источники:

  1. gismeteo.ru






В Китае робот сдал тест для поступления в университет

Россия будет защищена от внешнего отключения Рунета к 2021 году

О конференции Strata AI: будущее искусственного интеллекта

Китайский самообучающийся процессор сможет имитировать работу нервных клеток человека

Илон Маск работает над интерфейсом для подключения мозга к компьютеру

Загадка QWERTY: почему буквы на клавиатуре расположены не в алфавитном порядке

Нейронную сеть научили практически идеально копировать человеческий голос





© Злыгостев Алексей Сергеевич, подборка материалов, оцифровка, статьи, оформление, разработка ПО 2001-2017
При копировании материалов проекта обязательно ставить активную ссылку на страницу источник:
http://informaticslib.ru/ "InformaticsLib.ru: Информатика"