Японские ученые из Университета Осаки смогли научить ИИ воссоздавать изображения, основанные на мыслях человека.
За основу исследователи взяли известную программу Stable Diffusion, которая умеет создавать картинки из текста. Ее точность распознавания достигает 80%, поэтому такая технология вполне сгодится для обучения ИИ.
В своей научной работе японцы сделали упор на создание картинок путем использования ключевых слов, поэтому каждая текстовая подсказка сделает изображение более точным и близким к тому, что задумал человек. Для того, чтобы усилить эффект, ученые предложили программе сопоставлять данные мозговой активности участников эксперимента, использую данные МРТ.
Таким образом, когда людям показывали различные фото с текстовым описанием изображений, нейросеть в это время фиксировала и запоминала, какие участки мозга возбуждены. В общей сложности, добровольцам продемонстрировали около 10 тысяч фото, благодаря чему ИИ смогу собрать достаточное количество информации и обучиться на ее основе.
Завершив обучение, нейросеть достигла значительных успехов в области расшифровки мыслей. Точность воспроизводимой картинки достигла 80%.
«Мы показали, что наш метод способен воспроизводить изображения с достаточно высоким разрешением и семантической точностью. Это позволяет эффективно читать мысли людей», — считают японские ученые.
Несмотря на значительные успехи эксперимента, проведенного в Университете Осаки, назвать такое достижение чтением мыслей пока рано. По сути, речь идет о распознавании образов, но не о мысли как о действии разума. Более того, в науке существуют аналогичные технологии, например, летом 2021 года в Калифорнийском университете в Сан-Франциско ученые смогли «прочитать мысли» парализованного человека, используя нейроимплантат. Он преобразовывал мозговые волны в слова. С помощью нейросети словарный запас такой технологии увеличился, благодаря чему подопытный смог выражать свои мысли, пишет АиФ.