Бившият изпълнителен директор на Google Ерик Шмид предупреди за сериозната опасност, която представляват хакерите за изкуствения интелект.
„Има доказателства, че можете да вземете модели, затворени или отворени, и да ги хакнете, за да премахнете техните ограничения. Лош пример би било да се научат да убиват“, каза той, когато беше попитан дали изкуственият интелект е по-разрушителен от ядрените оръжия по време на разговор край камината на срещата на върха Sifted.
Хакерите могат да скрият злонамерени инструкции в потребителски входове или външни данни, като уеб страници или документи, за да подведат изкуствения интелект да прави неща, които не е предназначен да прави - като например споделяне на лични данни или изпълнение на вредни команди. Те могат и да манипулират отговорите на изкуствения интелект, така че той да игнорира правилата си за безопасност и да създаде опасно съдържание.
Шмид каза, че все още няма добър „режим за неразпространение“, който да помогне за ограничаване на опасностите от изкуствения интелект.
Въпреки мрачното си предупреждение, Шмид е оптимист относно изкуствения интелект като цяло и дори смята, че технологията не получава заслуженото внимание.
Някои анализатори сравняват настоящия бум на изкуствения интелект с краха на дотком компаниите от началото на 2000-те. Шмид обаче вярва, че историята няма да се повтори.
„Не мисля, че това ще се случи тук, но не съм професионален инвеститор. Знам със сигурност, че хората, които инвестират трудно спечелените си пари, вярват, че дългосрочната икономическа възвръщаемост ще бъде огромна. В противен случай защо биха поемали такъв риск?“, заключи той.