GPT (Generative Pre-trained Transformer) – seria modeli od OpenAI.

Seria modeli opracowanych przez OpenAI, które wykorzystują architekturę transformera i są przeznaczone do generowania tekstu na podstawie wstępnego treningu na dużych zbiorach danych. Modele te charakteryzują się zdolnością do rozumienia i generowania naturalnego języka, co umożliwia ich zastosowanie w różnorodnych zadaniach, takich jak tłumaczenie maszynowe, generowanie odpowiedzi na pytania czy tworzenie tekstów kreatywnych. Kluczowym elementem ich działania jest proces wstępnego treningu na nieoznakowanych danych tekstowych, co pozwala na rozwinięcie szerokiej wiedzy językowej przed dalszym dostosowaniem do konkretnych zadań.

Modele z tej serii są iteracyjnie rozwijane, co skutkuje znacznym zwiększeniem ich zdolności oraz efektywności w rozumieniu kontekstu i generowaniu spójnych wypowiedzi. Ich architektura umożliwia równoległe przetwarzanie danych, co przyczynia się do szybkiego działania. Stanowią one istotny wkład w rozwój przetwarzania języka naturalnego oraz sztucznej inteligencji, wpływając na liczne aplikacje komercyjne i badawcze.