Skip to content

Sztuczna inteligencja cz. 5

3 dni ago

285 words

width=300Architektura rekurencyjnych sieci neuronowych (RNN) korzysta z informacji sekwencyjnych. RNN są nazywane powtarzającymi się, ponieważ wykonują to samo zadanie dla każdego elementu sekwencji, a dane wyjściowe zależą od wcześniejszych obliczeń. Tworzy to krótkoterminową funkcję pamięci, która przechwytuje informacje o wcześniejszych obliczeniach. Ten prosty RNN jest rozwijany w sieć neuronową złożoną z 3 warstw zaprojektowanych do dekodowania 3-wymiarowej frazy; wejście w kroku czasowym (t) jest reprezentacją wektorową słowa 2 w wyrażeniu. Ostateczne wyjście to wektor prawdopodobieństw słowa w wyrażeniu ze słownika wyborów dostępnych w czasie t + 1. Aby RNN przewidywał następne słowo w zdaniu (tj. Modelowanie języka), jest pomocne wiedzieć, które słowa przyszły przed nią. . Wykonywanie tych samych zadań na każdym etapie sekwencji z różnymi danymi wejściowymi generuje wektor prawdopodobieństw matematycznych (tj. Model generatywny), w którym ostatnie słowo w drugim zdaniu jest jabłkiem, a nie piórem, czerwonym lub cześć. Zdania o wysokim prawdopodobieństwie są zazwyczaj poprawne (np. Mam jabłko). To wyjaśnia (w części), w jaki sposób RNN (i bardziej wyrafinowane długie jednostki pamięci krótkoterminowej) mogą z powodzeniem realizować zadania przetwarzania języka naturalnego, takie jak czytanie dokumentacji medycznej.

0 thoughts on “Sztuczna inteligencja cz. 5”