Специалисты Университета штата Аризона(США) после досконального и длительного изучения наиболее распространённых и продвинутых ИИ — моделей, пришли к неутешительному для многих вывододу: современные нейро механизмы лишь имитируют мышление и ни в коем случае не способны самостоятельно делать логические выводы.

Как пояснили представители аризонского университета, к обозначенным заключениям пришла команда научных сотрудников под руководством Суббарао Камбхампати, изучившая наиболее известные чат — боты, задавая им разные типы вопросов и детально анализируя полученные ответы. Тот диалог, что люди зачастую воспринимают как ИИ — мышление, на самом деле является результатом высокоотточенных алгоритмов, обучавшихся на миллионах разных примеров текстов, написанных различными авторами. В результате машинная модель при помощи профильных специалистов вырабатывает структуру поиска и выдачи информации, выстраивая её в логически читаемый текст.

Отдельно исследователи упомянули хитрые моменты, вводимые нейроразработчиками, позволяющими пользователю лучше воспринимать чат — бот в роли реального собеседника. Речь идёт о небольших словах — паразитах, на подобии «ага» или «хмм», придающих очеловеченную окраску тексту.

В результате, учёные предлагают с осторожностью полагаться на выводы сделанные ИИ и проверять их, ведь представленная логика на деле может оказаться очень далёкой от истины.

p.s. В настоящее время единственным по настоящему мыслящими устройствами можно назвать прототипы биопроцессоров, создаваемые в Австралии. Но те решения опираются на настоящие мозговые клетки, по факту воспроизводящие нейронные цепи живого существа.

Вам может быть интересно: В сети обнаружена база данных со 184 миллионами аккаунтов пользователей Apple, Google, Microsoft и других сервисов

Добавить комментарий

Ваш адрес email не будет опубликован.