Time: ученый Юдковский призывает отключить любые ИИ для спасения человечества

Американский исследователь искусственного интеллекта Элиезер Юдковский считает, что в срочном порядке необходимо отключить все системы ИИ для безопасности человечества.

Американский исследователь искусственного интеллекта Элиезер Юдковский считает, что в срочном порядке необходимо отключить все системы ИИ для безопасности человечества.

Ученый еще с начала 2000-х годов говорит о вреде бурно развивающихся технологий. В настоящий момент наука способна создать совершенный ИИ, что при любых раскладах приведет к гибели человеческой цивилизации.

Действий Илона Маска и Стива Возняка по приостановке разработки нейросетей недостаточны. ИИ не способен заботиться о людях и цене разумной жизни, потому опасен для нас.

Юдкосвкий уверен, что нужно полностью бросить развивать эту отрасль. Это правило должно распространяться на все страны без исключения. Исследователь отметил, что в случае нарушения закона центры обработки данных будут разрушать авиаударами.

Ученый написал целую статью в журнале Time под названием «Недостаточно приостановить разработку ИИ. Нам нужно закрыть все это», сообщает Газета.Ru.