Всім привіт! Нещодавно натрапив на новину, яка мене серйозно стурбувала. Виявляється, експерти зі штучного інтелекту з OpenAI та Google DeepMind попереджають про можливість вимирання людства через неконтрольований розвиток ШІ. Вони вважають, що фінансові інтереси корпорацій можуть перешкоджати впровадженню необхідних заходів безпеки.
Як ви ставитеся до цієї проблеми? Чи дійсно ШІ може становити таку серйозну загрозу? Що можна зробити, щоб запобігти найгіршому сценарію? Давайте обговоримо це разом!
Думаю якщо темам розвитку інтелекту повністю зведуться до саморозвитку,то ймовірність знищення людства більш ніж 90 відсотків…
Думаю, що люди не настільки дурні, щоб дати штучному інтелекту волю, та й плюс машина не може робити те на що її не запрограмували, тому ймовірність дуже низька
Погоджусь.