Група експертів зі сфери штучного інтелекту, серед яких колишні та нинішні співробітники провідних компаній OpenAI та Google DeepMind, висловила серйозне занепокоєння щодо екзистенційних ризиків, пов’язаних з неконтрольованим розвитком ШІ. У відкритому листі, опублікованому 5 червня 2024 року, вони акцентують увагу на тому, що фінансові інтереси корпорацій, які займаються розробкою та впровадженням штучного інтелекту, можуть перешкоджати впровадженню ефективних механізмів контролю та регулювання цієї потужної технології.
Експерти попереджають, що без належного контролю, штучний інтелект може призвести до непередбачуваних наслідків, які загрожують існуванню людства. Вони закликають до негайного перегляду існуючих структур управління та розробки нових підходів, які забезпечать безпечний та відповідальний розвиток штучного інтелекту. На їхню думку, необхідне створення незалежних органів, які зможуть об’єктивно оцінювати ризики та впроваджувати необхідні обмеження.
Лист експертів став черговим нагадуванням про те, що штучний інтелект, незважаючи на свій величезний потенціал для розвитку людства, може також стати джерелом серйозних загроз. Тому важливо забезпечити його розвиток у рамках етичних норм та під суворим контролем з боку суспільства.