RAG (Retrieval-Augmented Generation) – łączenie LLM z zewnętrznymi bazami wiedzy.
Jest to technika integrująca duże modele językowe (LLM) z zewnętrznymi źródłami informacji w celu poprawy jakości generowanych odpowiedzi oraz zwiększenia zakresu dostarczanej wiedzy. Polega na wyszukiwaniu odpowiednich danych w bazach wiedzy lub dokumentach, które następnie służą jako kontekst do generowania bardziej precyzyjnych i aktualnych treści przez model językowy. W ten sposób możliwe jest obejście ograniczeń wynikających z statycznej bazy treningowej modelu oraz uwzględnienie najnowszych informacji.
W praktyce proces ten składa się z dwóch głównych etapów: najpierw system wyszukuje lub pobiera fragmenty tekstów najbardziej odpowiadające zapytaniu użytkownika, a następnie te dane są wykorzystywane jako dodatkowy kontekst przez model generujący odpowiedź. Dzięki temu rezultaty są nie tylko syntetyczne, ale również oparte na zweryfikowanych, aktualnych źródłach, co zwiększa ich wiarygodność i użyteczność. Technika ta znajduje zastosowanie m.in. w systemach dialogowych, wyszukiwarkach semantycznych oraz narzędziach wspomagających tworzenie treści.