Ученый утверждает, что ИИ может убить нас примерно через 200 лет
Майкл Гарретт — радиоастроном из Манчестерского университета и директор Центра астрофизики Jodrell Bank, активно участвующий в поиске внеземного интеллекта (SETI) — написал статью, которая была рецензируемой и опубликованной в журнале Международной академии астронавтики. Oн сравнивает теории об искусственном суперинтеллекте с конкретными наблюдениями с использованием радиоастрономии.
Ученый задается вопросом, является ли ИИ одной из причин, почему мы никогда не находили других разумных существ во Вселенной. Может ли быть так, что, как только цивилизации развивают ИИ, то и сами заканчивают свое существование. Такое крупномасштабное событие называется Большим фильтром, и ИИ является одной из самых популярных тем спекуляций о нем. Может ли неизбежное развитие ИИ технологическими цивилизациями создать невероятную Великую Тишину, которую мы слышим из Вселенной?
Гарретт объясняет, что ученые становятся все более обеспокоены, чем дольше мы не видим никаких признаков другой разумной жизни.
Сегодня ИИ не способен ни на что, близкое к человеческому интеллекту. Но, пишет Гарретт, это работа, которая раньше считалась такой, которую компьютеры делать не могут. Если эта траектория приведет к так называемому общему искусственному интеллекту (GAI) — ключевому различию, означающему алгоритм, который может рассуждать и синтезировать идеи по-настоящему человеческим образом в сочетании с невероятной вычислительной мощностью — у нас действительно могут быть проблемы. Сколько времени понадобится, чтобы цивилизация была уничтожена собственным нерегулируемым GAI?
По прогнозу Гарретта, нужно всего 100—200 лет. Кодирование и разработка ИИ — это проект, включающий и ускоренный данными и вычислительной мощностью.
В исследовании есть несколько важных предостережений, о которых следует помнить. Гарретт рассматривает ряд конкретных гипотетических сценариев. Он предполагает, что на Млечном Пути существует жизнь и что ИИ и GAI являются "естественным развитием" этих цивилизаций.
Однако гипотетически он приходит к выводу о необходимости тяжелой и непрерывной регуляции ИИ.
Согласно модели Гаррета, этим цивилизациям осталось всего несколько сотен лет до эпохи BB, прежде чем они исчезнут с карты мира.
Без практического регулирования есть все основания полагать, что ИИ может представлять серьезную угрозу будущему не только нашей технической цивилизации, но и всех технических цивилизаций.