Учёный Meta считает искусственный интеллект безопасным для людей

Обновлено: 2026-05-02

Старший научный сотрудник Meta Ян Лекун, специализирующийся на информатике, считает искусственный интеллект (ИИ) безопасным для человечества.

Споры по поводу экзистенциального риска будут преждевременными до тех пор, пока мы не разработаем систему, способную конкурировать в плане обучаемости хотя бы с кошкой. Нам до сих пор не удалось этого достичь, — отметил Лекун.

yann-lecun

Ян Лекун

По мнению Яна, ИИ не способен навредить человечеству из-за своей недоразвитости. Виртуальные помощники, наподобие ChatGPT, могут генерировать контент, но, как утверждает Лекун, не в силах рассуждать и планировать, потому что они не понимают, как устроен мир.

Глава Tesla Илон Маск оказался в стане приверженцев противоположных взглядов. Он полагает, что ИИ очень опасен и может уничтожить цивилизацию. Поэтому, чтобы избежать проблем, Маск вместе со многими представителями технологической отрасли подписал письмо с требованием приостановить разработку продвинутого искусственного разума.

Один из аспектов исходящей от ИИ угрозы, был продемонстрирован во время испытаний дронов, управляемых софтом в виртуальной реальности. Искусственный интеллект во что бы то ни стало хотел завершить миссию по уничтожению врага и убивал союзных военных, если они мешали ему выполнить приказ. После того, как программе запретили нападать на людей, она стала атаковать телекоммуникационные башни, чтобы пресечь передачу сигналов от командования.

Предупреждение о рисках:

Информация на сайте носит исключительно информационный и образовательный характер и не является инвестиционной рекомендацией или финансовым советом. Криптовалюты и цифровые активы связаны с высоким уровнем риска, включая возможную потерю капитала. Редакция не несёт ответственности за решения, принятые на основе опубликованных материалов. Перед принятием инвестиционных решений рекомендуется проводить собственное исследование (DYOR). Ознакомиться с редакционной политикой https://happycoin.club/about/


Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *