?

Log in

No account? Create an account
Previous Entry Share Next Entry
Опасность искусственного интеллекта совсем не там, где её боятся
ieriki
Оригинал взят у matholimp в Опасность искусственного интеллекта совсем не там, где её боятся
В своих лекциях по теории искусственного интеллекта в ИТМО я неоднократно замечал, что в качестве риска погубить человечество искусственный интеллект уже опережает ядерное оружие, но пока ещё отстаёт от биотехнологий. Однако, риск совсем не там, где против него выступают Хокинг и Маск. Интеллектуальное наступательное оружие способно погубить город масштаба Хиросимы или привести к экологической катастрофе регионального масштаба. Но даже если люди не смогут вернуть контроль над таким оружием, относительно быстро исчерпается его боезапас.
Несопоставимо больший риск для человечества представляют "мирные" системы искусственного интеллекта, целью которых является его самовоспроизводство. Вот если они выйдут из-под контроля людей, то вернуть его люди уже едва ли смогут. А уже значительно позже в ходе саморазвития такая система начнёт изменять всё, что ей мешает. Даже если она не станет целенаправленно уничтожать людей, то может столь радикально изменить экологические параметры, что люди не смогут выжить.