матрица заполнена случайными числами
ну да, вот заполнили мы пространство ембедингов случайными числами... я понял все так... можно я пошагово как то свое понимание буду говорить? вы уж извините мою тупость, я просто хочу нижнеуровнево схватить суть, а то терминов и абстракций много а под капотом обычно простые вещи на первом шаге, мы читаем слово из текста, получаем его номер в словаре, точнее читаем несколько слов из текста? дальше для центрального слова, мы читаем строку из пространства embedding размером 1000 на миллион и подаем эти 1000 рандомных чисел из пространства embedding на вход первому слою нейронки у которого размер 300 на размер словаря - то есть 300 миллионов ? и он тоже этот слой заполнен изначально рандомными весами? дальше что мы делаем? эти 1000 рандомных чисел умножаем ... на что? каждую цифру на каждый вес или как? результат сохраняем в первом слое? поскольку у нас два линейный (полносвязный) слоя... то дальше что... ? мы получившиеся 300 миллионов рандомных чисел перемножаем со вторым слоем?
Чтобы резобраться в деталях рекомендую погуглить код word2vec, типа "word2vec minimal python implementation" например https://jaketae.github.io/study/word2vec/ Кодом такое объяснить проще чем словами
спасибо за ссылку, можно если что вам вопросики задавать?
https://youtu.be/viZrOnJclY0 советую посмотреть это видео
Обсуждают сегодня