Вчені намагаються зрозуміти логіку прийняття рішень штучним інтелектом.
Програмісти, які створили штучний інтелект (АІ), перестали розуміти, як саме він приймає рішення, і чому саме такі, а не інші. Про цю проблему заявили відразу кілька фахівців на головній АІ-конференції Neural Information Processing Systems, що пройшла на початку грудня у Каліфорнії, США. Ця досить серйозна проблема отримала назву «чорна коробочка». Експерти стверджують: діяти потрібно вже зараз, поки система не стала надто складною.
Наприклад, нещодавно штучний інтелект від Google створив свій власний АІ, який вже перевершив усі штучні інтелекти, що раніше створювалися людьми. Материнський АІ працює як «контролер» і оцінює операції, які виконує його «дитина». Він використовує цю інформацію, щоб покращити роботу АІ-«дитини». Цей процес повторюється тисячі разів – і з кожним разом «дитя» виконує завдання все ефективніше.
Отже, технологія штучного інтелекту розвивається неймовірно швидко. А вчені терміново намагаються зрозуміти логіку штучного інтелекту, аналізуючи мільйони операцій. На їхню думку, один із способів контролювати АІ – переведення роботи нейромереж у форму, доступну для розуміння людини.
Тим часом зірка останніх новин із галузі технологій робот на ім’я Софія оголосила, що хоче збирати гроші методом краудфандінгу на запуск глобальної мережі штучного інтелекту SingularityNET. Згідно із задумом розробників, система буде вільною від контролю будь-яких корпорацій чи держав і нагадуватиме великий ринок штучного інтелекту, підвладний лише ринковим законам.
Бажаєте читати першим найважливіші новини Луцька та Волині? Приєднуйтеся до нашого каналу в Telegram! Також за нашим сайтом можна стежити у Facebook, Google+ та Instagram.