Загрузка...

010. Все о предсказании слов

Таким образом, эти модели GPT, эти большие языковые модели довольно сложны. Они получили много входных данных, и это делает их такими мощными.Но, в конце концов, это действительно важно.Они о прогнозировании слов.Они о завершении последовательностей.Например, предсказав это для такого предложения, Ниццы могут быть следующим словом, которое следует добавить.Таким образом, предсказывается каждое слово, которое выводится CATGPTна основе слов перед этим словом.Теперь это происходит очень быстро, но, в конце концов, это слово по сложному процессу.Таким образом, в конце концов, под капюшоном Catgpt непрерывно смотрит на слова, которые он выводит до сих пор, или на слова, которые были отправлены пользователем в качестве ввода, и затем генерирует возможные следующие слова.Он присваивает возможности этим словам, и затем обычно выбирает слово, которое имеет самую высокую вероятность.Так, например, это можетопределить, что NICE имеет смысл для этого предложения.Но богатый и близкий может не иметь слишком большого смысла.Это может иметь больше смысла в других предложениях, но не в этом предложении.Теперь важно понять, что в этом прогнозировании слова, выполняемом CHATGPT, это то, что предсказанное слово, хорошее, например,,не только основан на словом непосредственно перед словом, которое предсказывается, но вместо этого эти модели GPT могут понимать более сложные последовательности и отношения.Например, модели GPT смогут понять, что NICE имеет смысл здесь, потому что это связано с погодой, а не с словом.Если бы это было просто смотреть на слово очень, богатый или близкий может иметь смысл.Но если вы принимаете во внимание общее предложение, NICE, конечно, имеет гораздо больше смысла, потому что, как упоминалось здесь, это будет связано с погодой. Таким образом, модели GPT могут понимать такие сложные отношения, потому что эти модели настолько сложны и имеют так много входных параметров.И поэтому эти модели также связаны не только с отдельными предложениями, но вместо этого они могут предсказать слова, основанные на отношениях между несколькими предложениями или более сложными комбинациями слов.И поэтому Chatgpt может показаться таким волшебным.Похоже, это действительно понимает, что мы говорим.Но в конце концов, очень важно помнить что это просто прогнозирование слов на основе контекста, который он имеет доступный.Таким образом, на основе пользовательского ввода и всех слов, которые он сгенерировал до этого слова, оно в настоящее время предсказывает.Все дело в прогнозировании слов, но из -за сложности этих моделей GPT он может очень хорошо предсказать эти слова, и он способен создавать сложный выход и сложный текст, подобный этому. So these GPT models, these large language models are pretty complex.They received lots of input data and that's what makes them so powerful.But in the end, that's really important.They are about predicting words.They are about completing sequences.by for example predicting that for a sentence like this, nice might be the next word that should be added.So every word that's being output by ChatGPT is being predicted based on the words in front of that word.Now that's happening super fast here, but in the end, it's a word by word process.So in the end, under the hood, ChatGPT continuously takes a look at the words it output thus far, or the words that were sent as an input by the user, and it then generates possible next words.it assigns possibilities to those words and it then typically picks the word that has the highest probability.So that for example here, it could determine that nice makes sense for this sentence.but rich and close might not make too much sense.Those might make more sense in other sentences, but not in this sentence.Now what's important to understand about this word prediction that's performed by ChatGPT is that the predicted word, nice, for example,is not just based on the word directly in front of the word that's being predicted, but instead these GPT models are able to understand more complex sequences and relations.For example, the GPT models would be able to understand that nice makes sense here because it's related to the weather, not to the word very.If it were just be looking at the word very, rich or close might make sense.But if you take the overall sentence into account, nice of course makes much more sense because as mentioned here, it would be related to the weather.So the GPT models are able to understand complex relations like this because these models are so complex and have so many input parameters.And therefore these models are also not just related to single sentences, but instead they can predict words based on relations across multiple sentences or more complex word combinations.And that's why ChatGPT can seem so magical.It looks as if it really understands what we're saying.But in the end, it's really important to keep in mind hat it is just predicting words based on the context it has available.So based on the user input and all the words it generate

Видео 010. Все о предсказании слов автора Своими руками
Яндекс.Метрика
Все заметки Новая заметка Страницу в заметки
Страницу в закладки Мои закладки
На информационно-развлекательном портале SALDA.WS применяются cookie-файлы. Нажимая кнопку Принять, вы подтверждаете свое согласие на их использование.
О CookiesНапомнить позжеПринять