Срочно (10.10.25): «Плохим примером будет то, как они учатся убивать», — бывший глава Google напомнил об опасностях ИИ-моделей, которые можно взломать - новости smi.mobi (10.10.25)
«Плохим примером будет то, как они учатся убивать», — бывший глава Google напомнил об опасностях ИИ-моделей, которые можно взломать
Автоматически добавлена на сайт: 10:27
Бывший генеральный директор Google Эрик Шмидт напомнил об опасностях искусственного интеллекта и о том, насколько он подвержен взлому. Он предупредил о «плохих вещах, которые может сделать ИИ», когда его спросили, является ли ИИ более разрушительным, чем ядерное оружие. «Существует ли вероятность распространения ИИ? Безусловно», — заявил Шмидт, отметив, что риски распространения ИИ включают в себя попадание технологии в руки злоумышленников, её перепрофилирование и использование не по назначению. «Есть доказательства того, что можно взять модели, закрытые или открытые, и взломать их, чтобы снять ограждения. Так что в ходе обучения они многому учатся. Плохим примером будет то, как они учатся убивать», — сказал Шмидт. Шмидт заявил, что пока не существует эффективного «режима нераспространения», который мог бы помочь обуздать опасность ИИ. Изображение Midjourney Несмотря на мрачное предупреждение, Шмидт с оптимизмом посмотрел на ИИ в целом и сказал, что эта технология не получает той популярности, которой она заслуживает. Некоторые сравнивают текущий ИИ-бум с крахом пузыря доткомов в начале 2000-х годов. Однако Шмидт заявил, что, по его мнению, история не повторится. «Я не думаю, что здесь это произойдет, но я не профессиональный инвестор. Я точно знаю, что люди, которые вкладывают с трудом заработанные деньги, верят, что экономическая отдача в долгосрочной перспективе будет колоссальной. Иначе зачем бы они пошли на такой риск?»