Стивен Хокинг: человечество обречено, если не покинет Землю

Стивен Хокинг: человечество обречено, если не покинет Землю

Если человечество хочет выжить в долгосрочной перспективе, ему нужно найти способ покинуть планету Земля. Знакомые слова? В этот раз они прозвучали из уст известного астрофизика Стивена Хокинга. Возможно, у людей осталось меньше 200 лет, чтобы выяснить, как сбежать с родной планеты, заявил Хокинг в недавнем интервью Big Think. В противном случае нашему виду может грозить вымирание.

«Будет довольно сложно избежать катастрофы в ближайшие сто лет, не говоря уже о следующей тысяче или миллионе лет, — сказал Хокинг. — Наш единственный шанс долговременного выживания — не остаться на планете Земля, а распространиться в космосе».

Людей, застрявших на Земле, ждет риск двух типов катастроф, считает Хокинг. Первый тип мы можем создать самостоятельно, к примеру, вызывая кардинальное изменение климата или создав ядерное или биологическое оружие. Может стереть нас с лица Земли и ряд космических явлений. Астероид, столкнувшийся с Землей, убьет большую часть населения и оставит остальную часть планеты непригодной для жизни. Вспышка гамма-лучей сверхновой недалеко в Млечном Пути тоже может оказаться разрушительной для жизни на Земле.

Жизнь на Земле также может быть под угрозой внеземных цивилизаций, о чем любит говорить Хокинг. Опасные чужаки могут завладеть планетой и ее ресурсами для собственного использования. Для выживания нашего вида было бы безопаснее иметь запасной план в виде других миров.

«Человеческой расе не стоит держать все яйца в одной корзине, или на одной планете. Будем надеяться, что мы не уроним корзину, пока не перераспределим нагрузку».

На днях Хокинга спросили, какие недостатки людей он бы изменил, а какие добродетели улучшил, если было бы возможно. Он ответил: «Больше всего я бы хотел поправить в человеке его агрессию. Она давала преимущество при выживании в дни пещерных людей, чтобы получить больше еды, территории или партнера, с которым можно продолжить род, но сегодня она угрожает уничтожить нас всех».

В ноябре Элон Маск, генеральный директор SpaceX и Tesla, предупреждал, что шанс на то, что случится нечто опасное в результате появления машин с искусственным интеллектом, может выстрелить уже через пять лет. Ранее он утверждал, что развитие автономных думающих машин сродни «призыву демона». Выступая на симпозиуме AeroAstro Centennial в октябре, Маск описал искусственный интеллект как нашу «крупнейшую угрозу для выживания». Тогда он сказал: «Я думаю, нам стоит быть очень осторожными с искусственным интеллектом. Если бы я мог предположить, какой будет наша крупнейшая угроза для выживания, то это он. Нам нужно быть очень осторожными с искусственным интеллектом. Я все больше и больше склоняюсь к тому, что должен быть некий регулятивный надзор, возможно, на национальном и международном уровне, просто чтобы знать, что мы не делаем дурацких ошибок».

«С искусственным интеллектом мы вызываем демона. Вы знаете эти истории, в которых парень с пентаграммой и святой водой… он думал, что сможет контролировать демона, но нет».

Возвращаемся к Хокингу. «Качество, которое я хотел бы улучшить — это эмпатия, сочувствие. Она удерживает нас в состоянии мира и любви». Профессор также добавил, что космическая гонка для людей будет «страхованием жизни» и должна продолжаться.

«Отправка людей на Луну изменила будущее человеческой расы таким образом, о котором мы пока даже не подозреваем, — сказал он. — Она не решила наши насущные проблемы на планете Земля, но позволила нам взглянуть на них под другим углом, изнутри и снаружи».

«Я считаю, что долгосрочным будущим человеческой расы должен быть космос и что он представляет собой важную страховку жизни для нашего дальнейшего выживания, поскольку может препятствовать исчезновению человечества путем колонизации других планет».

В декабре 2014 года Хокинг выступил с другим предупреждением — что искусственный интеллект может означать конец человеческой расы. Выступая на мероприятии в Лондоне, физик рассказал BBC, что «развитие полноценного искусственного интеллекта может положить конец человеческой расе».

В январе группа ученых и предпринимателей, включая Элона Маска и Стивена Хокинга, подписала открытое письмо, обещающее положить начало исследованиям безопасности ИИ. Письмо предупреждает о том, что без каких-либо гарантий развитие умных машин может означать темное будущее для человечества.

Похожие публикации

Еще утром она была здорова, а через несколько часов врачи боролись за её жизнь
Еще утром она была здорова, а через несколько часов врачи боролись за её жизнь

4-летняя малышка Милли Доусон буквально за несколько часов чуть не погибла от этой ужасной болезни. Родители были взволнованы, когда им сообщили из школы, что дочери стало очень плохо. Еще утром она была веселая и активная, а после...

Когда люди набросили на неё веревку, корова заплакала от страха. Пока не увидела, куда её привезли (5 фото)
Когда люди набросили на неё веревку, корова заплакала от страха. Пока не увидела, куда её привезли (5 фото)

Когда молочная ферма разоряется или закрывается по другой причине, коровы, как правило, попадают на бойню. Это знает каждый фермер. И это именно то, что ожидало корову по имени Эмма. Расположенная в Германии ферма, где Эмма годами снабжала хозяев молоком

Рай для миллиардеров (17 фото)
Рай для миллиардеров (17 фото)

Прогулка по городу на Лазурном берегу, где дома покупают только богатые, вся застройка точечная, а квадратный метр жилья стоит как трехкомнатная квартира в крупном российском городе-миллионнике.

Вопрос: что это?
Вопрос: что это?

Подсказка: создано в XIX веке тибетскими монахами.   &...

Подпищитесь и
остовайтесь в курсе

Подпишитесь на нашу рассылку, чтобы каждый день получать новые публикации и поддерживать хорошое настроение!. Вы всегда можете отписаться.

Oratio petinax cu vix