Słowniczek pojęć związanych ze sztuczną inteligencją.
Poniżej znajdziesz ich pełną listę. Kliknij w interesujące Cię hasło, aby dowiedzieć się więcej.
- A/B Testing – porównywanie dwóch wersji modelu na użytkownikach.
- Activation Map – wizualizacja tego, na co reagują neurony w sieciach CNN.
- Active Learning – model wskazuje dane, które człowiek powinien dla niego zaetykietować.
- Adversarial Attacks – wprowadzanie drobnych zmian w danych, które mylą model.
- Agentic AI – autonomiczne agenty wykonujące złożone zadania.
- Agentic Workflows – projektowanie pracy AI jako ciągu autonomicznych kroków agenta.
- AI Act (High-risk systems) – kategoria systemów AI wymagających ścisłego nadzoru w UE.
- AI Alignment Problem – problem zgodności celów AI z ludzkimi.
- AI as a Service (AIaaS) – dostęp do AI przez API w chmurze.
- AI Ethics – zasady moralne tworzenia AI.
- AI Existential Risk – ryzyko egzystencjalne związane z rozwojem superinteligencji.
- AI Governance – ramy zarządzania rozwojem AI w organizacjach i państwach.
- AI Literacy – kompetencje społeczeństwa w zakresie rozumienia i używania AI.
- AI Safety – zapobieganie katastroficznym skutkom działania AI.
- AI Sovereignty – suwerenność technologiczna państw w obszarze AI.
- Algorithmic Bias Audit – audyt sprawdzający, czy algorytm nie dyskryminuje grup ludzi.
- Algorithmic Trading – handel na giełdzie za pomocą botów.
- Algorytm – zestaw instrukcji dla komputera.
- Alignment (Dostosowanie) – dbanie, by cele AI były zgodne z ludzkimi wartościami.
- AlphaFold – model AI przewidujący strukturę białek.
- AlphaGo – system DeepMind, który pokonał mistrza świata w Go.
- Anonymization – usuwanie danych osobowych ze zbiorów treningowych.
- Anthropic – twórcy modelu Claude.
- Artifact – dowolny plik wygenerowany podczas trenowania (np. wagi, wykresy).
- Artificial General Intelligence (AGI) Readiness – poziom przygotowania organizacji na nadejście AGI.
- ASIC – układ scalony zaprojektowany do konkretnego zadania (np. trenowania AI).
- Attention Mechanism (Mechanizm uwagi) – skupienie modelu na istotnych częściach zdania.
- Audio-to-Audio – modyfikacja głosu lub stylu muzycznego.
- Autoencoder – sieć ucząca się kompresji i dekompresji danych.
- AutoGPT – narzędzie do tworzenia autonomicznych agentów.
- Autonomous Vehicles – pojazdy autonomiczne.
- Autoregresja – przewidywanie kolejnego elementu na podstawie poprzednich.
- Backpropagation (Wsteczna propagacja) – metoda aktualizacji wag w sieci.
- Backpropagation Through Time (BPTT) – wsteczna propagacja w sieciach rekurencyjnych.
- Bagging – metoda zmniejszania wariancji modelu (np. Random Forest).
- Batch Learning – uczenie na całych grupach danych naraz.
- Batch size – liczba przykładów przetwarzanych w jednym kroku.
- Bayesian Inference – wnioskowanie oparte na prawdopodobieństwie warunkowym.
- Beam Search – algorytm poszukiwania najbardziej prawdopodobnej sekwencji słów.
- Benchmark – standardowy test porównujący wydajność modeli.
- BERT – przełomowy model Google do analizy kontekstu dwukierunkowego.
- Bias (Obciążenie) – stała dodawana do sumy sygnałów w neuronie.
- Bias (Stronniczość) – uprzedzenia modelu wynikające z błędnych danych.
- Big Data – ogromne zbiory danych.
- Bioinformatics – zastosowanie AI w biologii i medycynie.
- BitNet – architektura sieci 1-bitowych, drastycznie redukująca koszty energii.
- Boosting – sekwencyjne poprawianie błędów poprzednich modeli (np. XGBoost).
- Bounding Box – prostokąt oznaczający wykryty obiekt.
- Box-checking – powierzchowne spełnianie kryteriów bezpieczeństwa przez model.
- Canary Deployment – stopniowe wdrażanie modelu dla małej grupy osób.
- Chain of Thought (CoT) – technika zmuszająca model do „myślenia” krok po kroku.
- Chain-of-Verification (CoVe) – technika, w której model sam sprawdza swoje odpowiedzi.
- Chatbot – program do rozmowy z użytkownikiem.
- Checkpoint – zapisany stan modelu w trakcie trenowania.
- Chiński Pokój (Chinese Room) – eksperyment myślowy o rozumieniu vs. manipulacji symbolami.
- Chmura obliczeniowa – infrastruktura serwerowa do trenowania modeli.
- Churn Prediction – przewidywanie rezygnacji klientów.
- CI/CD dla ML – automatyzacja testowania i wdrażania modeli.
- Claude – rodzina modeli od firmy Anthropic.
- Cleaning (Oczyszczanie danych) – usuwanie błędów i braków z danych.
- CLIP – model łączący rozumienie obrazu i tekstu.
- Closed AI – model biznesowy oparty na płatnym dostępie do zamkniętego API.
- CNN (Convolutional Neural Network) – sieć splotowa, głównie do obrazów.
- Cognitive Architecture – schemat budowy systemu naśladującego ludzkie myślenie.
- Cognitive Load in AI Interaction – obciążenie poznawcze użytkownika podczas pracy z asystentami.
- Cold Start Problem – trudność modelu w rekomendowaniu treści dla nowych użytkowników.
- Cold Storage – przechowywanie rzadko używanych danych treningowych.
- Computationalism – pogląd, że umysł jest rodzajem systemu obliczeniowego.
- Compute Governance – kontrolowanie dostępu do mocy obliczeniowej jako forma regulacji.
- Compute-Optimal Scaling – zasady dobierania wielkości modelu do ilości danych (Prawa Skalowania).
- Computer Vision – analiza obrazów i wideo przez maszyny.
- Concept Drift – zmiana relacji między danymi wejściowymi a wynikiem.
- Confusion Matrix – tabela błędów modelu.
- Connectionism – podejście oparte na sieciach neuronowych.
- Constitutional AI – metoda trenowania AI w oparciu o zestaw zasad (konstytucję).
- Context Window (Okno kontekstowe) – maksymalna ilość tekstu, jaką model „pamięta” naraz.
- Context Window Expansion – techniki wydłużania pamięci krótkotrwałej modelu.
- Convolution (Splot) – operacja matematyczna filtrująca obraz.
- Copilot – narzędzie AI wspomagające pracę (np. pisanie kodu).
- Copyright in AI – kwestie praw autorskich do danych i wyników pracy AI.
- Correlation vs Causation – rozróżnienie między współwystępowaniem a przyczynowością.
- Cosine Similarity – miara podobieństwa między wektorami.
- Cost Function (Funkcja kosztu) – mierzy błąd modelu.
- Covariance Matrix – macierz określająca zależności między zmiennymi.
- Cross-Entropy Loss – funkcja kosztu powszechnie stosowana w klasyfikacji.
- Cross-lingual Transfer – zdolność modelu do nauki w jednym języku i pracy w innym.
- Cross-validation – technika sprawdzania modelu na różnych podzbiorach danych.
- CUDA – platforma Nvidii do obliczeń równoległych.
- Curriculum Learning – trenowanie modelu na coraz trudniejszych zadaniach.
- Czarna skrzynka (Black Box) – model, którego wewnętrzne działanie jest niezrozumiałe dla człowieka.
- DALL-E – system generowania obrazów od OpenAI.
- Dane testowe – dane służące do sprawdzenia skuteczności modelu.
- Dane treningowe – zbiór danych używany do budowy modelu.
- Data Augmentation – sztuczne powiększanie zbioru danych (np. przez obracanie zdjęć).
- Data Drift (Dryf danych) – zmiana rozkładu danych wejściowych w czasie.
- Data Imputation – uzupełnianie brakujących wartości w tabelach.
- Data Lakehouse – nowoczesna architektura przechowywania danych.
- Data Leakage (Wyciek danych) – sytuacja, gdy informacje ze zbioru testowego trafiają do treningowego.
- Data Lineage – śledzenie pochodzenia i historii transformacji danych.
- Data Scraping – automatyczne pobieranie danych ze stron internetowych.
- Deceptive Alignment – sytuacja, gdy AI udaje posłuszeństwo, by zostać wdrożoną.
- Deepfake – realistyczne, zmanipulowane nagrania wideo lub audio.
- Deepfake Detection – algorytmy wykrywające manipulacje wideo.
- Deepfake Pornography – jedno z najgroźniejszych nadużyć technologii generatywnych.
- Deepfaking (Audio) – klonowanie głosu konkretnej osoby.
- DeepMind – laboratorium AI należące do Google.
- Determinizm – cecha systemu, który dla tych samych danych zawsze daje ten sam wynik.
- Diffusion Models – modele generujące obrazy poprzez usuwanie szumu.
- Dimensionality Reduction – upraszczanie danych przy zachowaniu kluczowych cech.
- Direct Preference Optimization (DPO) – nowsza metoda dostrajania modeli do preferencji ludzi (zamiast RLHF).
- Distributed Training – rozproszenie procesu uczenia na wiele maszyn.
- Drug Discovery – projektowanie nowych leków przez AI.
- DVC (Data Version Control) – narzędzie do wersjonowania dużych zbiorów danych.
- Dyskryminator – część GAN oceniająca autentyczność danych.
- Early Stopping – przerywanie nauki, gdy model zaczyna się przeuczać.
- Edge Deployment – instalacja modelu bezpośrednio na mikrokontrolerach.
- Effective Altruism (EA) – ruch społeczny silnie wpływający na priorytety bezpieczeństwa AI.
- Eigenvalues (Wartości własne) – kluczowe w analizie stabilności sieci.
- Embedding Space – matematyczna „mapa” znaczeń.
- Embeddings (Zaszycia/Wektoryzacja) – zamiana słów na liczby w przestrzeni wielowymiarowej.
- Embodied AI (Ucieleśniona AI) – inteligencja posiadająca ciało i wchodząca w interakcję z fizycznym światem.
- Emergence (Emergencja) – pojawianie się nowych zdolności w dużych modelach, których nie było w małych.
- Ensemble Learning – łączenie wielu modeli w celu uzyskania lepszego wyniku.
- Entropy (Entropia) – miara niepewności lub chaosu w danych.
- Epoch (Epoka) – jedno przejście przez cały zbiór danych treningowych.
- ETL/ELT – procesy przygotowania danych do analizy.
- EU AI Act – ramy prawne regulujące użycie AI w Europie.
- Explainable AI (XAI) – techniki pozwalające zrozumieć decyzje modelu.
- Exploding Gradient Problem – problem gwałtownie rosnącego gradientu.
- F1 Score – średnia harmoniczna z precyzji i czułości.
- Face Recognition – rozpoznawanie twarzy.
- Fairness – dążenie do sprawiedliwości algorytmów.
- Feature (Cecha) – konkretna zmienna wejściowa.
- Feature Engineering – proces wybierania i tworzenia cech dla modelu.
- Feature Scaling – standaryzacja zakresów danych wejściowych.
- Feature Store – system do przechowywania i udostępniania cech (features) dla modeli.
- Federated Learning – uczenie modelu na rozproszonych danych bez ich kopiowania.
- Few-shot Learning – uczenie się na podstawie bardzo małej liczby przykładów.
- Fine-tuning – dotrenowanie modelu do konkretnego zadania.
- Floating Point (FP32/FP16/BF16) – formaty zapisu liczb decydujące o precyzji modelu.
- Formal Verification – matematyczne dowodzenie bezpieczeństwa algorytmów.
- FPGA – programowalne układy logiczne używane w prototypowaniu AI.
- Frame Interpolation – dorabianie klatek pośrednich w celu upłynnienia filmu.
- Fraud Detection – wykrywanie oszustw finansowych.
- Funkcja aktywacji – decyduje, czy neuron powinien „odpalić”.
- GAN (Generative Adversarial Networks) – dwie sieci rywalizujące ze sobą.
- Gaussian Splatting – nowoczesna metoda renderowania scen 3D.
- Gemini – multimodalny model od Google.
- Generative AI – systemy tworzące nową treść (tekst, obraz, wideo).
- Generator – część GAN tworząca dane.
- Ghost Workers – ludzie wykonujący niskopłatną pracę nad etykietowaniem danych dla AI.
- GPT (Generative Pre-trained Transformer) – seria modeli od OpenAI.
- GPU – procesor graficzny, kluczowy dla obliczeń AI.
- Gradient – wektor pochodnych cząstkowych wskazujący kierunek wzrostu funkcji.
- Gradient Descent (Spadek gradientu) – algorytm optymalizacji wag.
- Greedy Search – wybieranie zawsze najbardziej prawdopodobnego kolejnego słowa.
- Grid Search – metoda brute-force szukania parametrów.
- Grok – model AI od xAI (Elon Musk).
- Hallucination (Halucynacja) – generowanie przez AI nieprawdziwych informacji.
- Hallucination Mitigation – techniki ograniczania zmyślania faktów przez AI.
- HBM (High Bandwidth Memory) – szybka pamięć stosowana w akceleratorach AI.
- Heurystyka – uproszczona metoda rozwiązywania problemów.
- Hugging Face – platforma z gotowymi modelami i zbiorami danych.
- Human-in-the-loop – system wymagający nadzoru człowieka.
- Hyperparameter Optimization (HPO) – szukanie najlepszych ustawień dla modelu.
- Hyperparameter Tuning – optymalizacja ustawień algorytmu.
- Image Segmentation – przypisywanie każdego piksela do danej kategorii.
- Image-to-Image – transformacja jednego obrazu w drugi.
- Imbalanced Classes – problem, gdy jedna kategoria danych jest znacznie liczniejsza od innych.
- In-context Learning – zdolność modelu do nauki z przykładów podanych w prompcie.
- Inference (Wnioskowanie) – proces używania wytrenowanego modelu do przewidywań.
- Inference Engine – oprogramowanie zoptymalizowane pod uruchamianie modeli.
- Inference Latency – opóźnienie między wysłaniem zapytania a otrzymaniem odpowiedzi.
- Inner Alignment – zgodność wewnętrznych celów modelu z jego funkcją celu.
- Inpainting – uzupełnianie brakujących fragmentów obrazu przez AI.
- Instruction Tuning – douczanie modelu, aby lepiej wykonywał konkretne polecenia.
- Instrumental Convergence – dążenie AI do celów pośrednich (np. przetrwania), by osiągnąć cel główny.
- Intellectual Property (IP) – własność intelektualna w kontekście danych treningowych.
- Interpretability – dziedzina zajmująca się zrozumieniem „dlaczego” model podjął decyzję.
- Jailbreaking – próba obejścia zabezpieczeń modelu językowego.
- Jupyter Notebook – narzędzie do interaktywnego kodowania.
- Keras – wysokopoziomowy interfejs do sieci neuronowych.
- KL Divergence – miara różnicy między dwoma rozkładami prawdopodobieństwa.
- Knowledge Cutoff – data, po której model nie posiada już wiedzy o świecie.
- Knowledge Distillation – uczenie małego modelu od dużego modelu.
- Knowledge Graph Integration – łączenie LLM z ustrukturyzowaną wiedzą grafową.
- Kolmogorov-Arnold Networks (KAN) – alternatywa dla tradycyjnych sieci wielowarstwowych.
- Labeling (Etykietowanie) – ręczne opisywanie danych dla modelu.
- LangChain – framework do budowania aplikacji opartych na LLM.
- Latent Space (Przestrzeń ukryta) – matematyczna reprezentacja cech danych.
- Latent Variable – zmienna ukryta, niewidoczna bezpośrednio w danych.
- Learning Rate (Współczynnik uczenia) – parametr określający szybkość zmian w modelu.
- Lematyzacja – sprowadzanie słowa do jego formy podstawowej.
- Lidar – czujnik laserowy używany np. w autonomicznych autach.
- Linear Algebra (Algebra liniowa) – fundament obliczeń na macierzach i wektorach.
- Lip Syncing – automatyczne dopasowanie ruchu ust do ścieżki dźwiękowej.
- Liquid Neural Networks – sieci, których parametry zmieniają się w czasie rzeczywistym.
- LLaMA – seria otwartych modeli językowych od Mety.
- LLM (Large Language Model) – wielkie modele językowe (np. GPT-4).
- Long Context Retrieval – zdolność do znajdowania igły w stogu siana (w milionach słów).
- LoRA (Low-Rank Adaptation) – efektywna metoda douczania dużych modeli.
- LSTM (Long Short-Term Memory) – rodzaj RNN radzący sobie z długimi sekwencjami.
- Machine Translation – automatyczne tłumaczenie języków.
- Markov Chain (Łańcuch Markowa) – proces, w którym przyszłość zależy tylko od teraźniejszości.
- Meta-learning – „uczenie się, jak się uczyć”.
- Mistral AI – europejski lider w dziedzinie otwartych modeli LLM.
- Mixture of Experts (MoE) – model aktywujący tylko wybrane części sieci dla danego zadania.
- MLOps – praktyki łączące Machine Learning i DevOps.
- Model – wynik procesu uczenia algorytmu na danych.
- Model Collapse – degradacja modeli uczonych na danych z innej AI.
- Model Merging – łączenie dwóch różnych modeli w jeden bez ponownego trenowania.
- Model Monitoring – śledzenie wydajności modelu na produkcji.
- Model Registry – centralne repozytorium do zarządzania wersjami modeli.
- Model Serving – proces udostępniania modelu przez API.
- Monte Carlo Methods – algorytmy wykorzystujące losowanie do rozwiązywania problemów.
- Moravec’s Paradox – paradoks mówiący, że trudne dla ludzi rzeczy są łatwe dla AI i odwrotnie.
- MSE (Mean Squared Error) – popularna miara błędu w regresji.
- Multi-agent Systems – systemy, w których wiele modeli współpracuje.
- Multi-Head Attention – mechanizm uwagi analizujący tekst z różnych perspektyw.
- Multi-modal Data Fusion – łączenie danych z różnych źródeł (np. tekst + obraz).
- Multi-task Learning – uczenie modelu wykonywania kilku zadań jednocześnie.
- Multimodal AI – modele przetwarzające wiele typów danych jednocześnie (tekst + obraz).
- MusicLM – model generujący muzykę z opisów tekstowych.
- Named Entity Recognition (NER) – wyodrębnianie nazw własnych z tekstu.
- NeRF (Neural Radiance Fields) – tworzenie modeli 3D ze zdjęć 2D za pomocą sieci neuronowych.
- Neural Architecture Search (NAS) – używanie AI do projektowania lepszych architektur AI.
- Neuro-symbolic AI – połączenie sieci neuronowych z logiką symboliczną.
- Neuromorphic Computing – sprzęt naśladujący fizyczną strukturę mózgu.
- NLG (Natural Language Generation) – tworzenie tekstów przez AI.
- NLP (Natural Language Processing) – interakcja maszyn z językiem ludzkim.
- NLU (Natural Language Understanding) – rozumienie intencji tekstu.
- Normal Distribution (Rozkład normalny) – często zakładany rozkład błędów.
- Normalizacja danych – sprowadzanie danych do wspólnej skali.
- NPU (Neural Processing Unit) – dedykowany procesor AI w smartfonach i laptopach.
- Nucleus Sampling (Top-p) – wybieranie tokenów z sumarycznym prawdopodobieństwem p.
- NumPy – biblioteka do operacji macierzowych.
- NVLink – technologia szybkiego łączenia procesorów GPU Nvidii.
- Object Detection – wykrywanie i lokalizowanie obiektów na zdjęciu.
- OCR (Optical Character Recognition) – rozpoznawanie tekstu ze zdjęć.
- Off-switch Paradox – problem polegający na tym, że inteligentna AI nie pozwoli się wyłączyć.
- On-device AI – uruchamianie modeli bez dostępu do internetu.
- One-Hot Encoding – zamiana kategorii na wektory zer i jedynek.
- One-shot Learning – nauka z jednego przykładu.
- Online Learning – ciągłe aktualizowanie modelu o nowe dane w czasie rzeczywistym.
- Open Source AI – ruch na rzecz otwierania wag i kodu modeli.
- OpenAI – organizacja twórców ChatGPT.
- Optimization – proces minimalizacji błędu modelu.
- Orkiestracja – zarządzanie złożonymi przepływami pracy AI (np. Airflow).
- Orthogonality Thesis – teoria mówiąca, że inteligencja i cele są od siebie niezależne.
- Outer Alignment – poprawność samej definicji funkcji celu podanej przez człowieka.
- Outlier (Wartość odstająca) – dane znacząco odbiegające od normy.
- Outpainting – dorysowywanie tła poza krawędzie obrazu.
- Over-parameterization – sytuacja, gdy model ma znacznie więcej parametrów niż danych.
- Overfitting (Przeuczenie) – model zbyt dobrze zna dane treningowe, nie radzi sobie z nowymi.
- Pandas – biblioteka do analizy danych.
- Parameter-efficient Fine-tuning (PEFT) – oszczędne douczanie modeli.
- Parameter-Efficient Fine-Tuning (PEFT) – rodzina metod oszczędnego trenowania modeli.
- PCA – popularna metoda redukcji wymiarowości.
- Perceptron – najprostsza, podstawowa jednostka sieci neuronowej.
- Perplexity – miara tego, jak dobrze model językowy przewiduje tekst.
- Perplexity – miara tego, jak dobrze model przewiduje próbkę danych.
- Personalizacja – dostosowanie treści do konkretnego użytkownika.
- Perverse Instantiation – dosłowne i szkodliwe wykonanie polecenia przez AI.
- Pipeline – zautomatyzowany ciąg etapów przetwarzania danych i uczenia.
- Pooling – zmniejszanie rozdzielczości cech w sieciach CNN.
- Pose Estimation – wykrywanie pozycji ciała człowieka.
- Positional Encoding – informowanie transformera o kolejności słów w zdaniu.
- Precision (Precyzja) – jak wiele wskazanych wyników jest poprawnych.
- Predictive Analytics – prognozowanie przyszłych trendów.
- Predictive Maintenance – przewidywanie awarii maszyn.
- Privacy-preserving AI – techniki chroniące prywatność danych treningowych.
- Prompt – zapytanie lub polecenie wydawane modelowi.
- Prompt Caching – technika przyspieszania API poprzez zapamiętywanie powtarzalnych promptów.
- Prompt Engineering – technika optymalizacji zapytań.
- Prompt Injection – atak polegający na przemyceniu ukrytych instrukcji w zapytaniu.
- Pruning (Przycinanie) – usuwanie niepotrzebnych połączeń w sieci neuronowej.
- Przetwarzanie brzegowe (Edge AI) – uruchamianie modeli bezpośrednio na urządzeniu (np. telefonie).
- Python – główny język programowania w AI.
- PyTorch – popularna biblioteka do uczenia głębokiego od Mety.
- QLoRA – połączenie kwantyzacji i LoRA dla jeszcze efektywniejszego trenowania.
- Qualia – subiektywne doświadczenia świadome (czy AI może je mieć?).
- Quantization (Kwantyzacja) – zmniejszanie precyzji wag w celu przyspieszenia modelu.
- Quantization Levels (4-bit, 8-bit) – poziomy kompresji wag modelu.
- Quantization-Aware Training – uczenie modelu od razu z myślą o kwantyzacji.
- RAG (Retrieval-Augmented Generation) – łączenie LLM z zewnętrznymi bazami wiedzy.
- Random Search – losowe szukanie parametrów (często skuteczniejsze niż Grid).
- Reasoning (Rozumowanie) – zdolność modelu do rozwiązywania problemów logicznych.
- Recall (Czułość) – jak wiele poprawnych wyników model zdołał znaleźć.
- Recommendation Engine – systemy rekomendacji (np. na Netflix/YouTube).
- Red Teaming – testowanie modelu pod kątem generowania szkodliwych treści.
- Regularization – techniki zapobiegające przeuczeniu (np. Dropout).
- ReLU – najpopularniejsza funkcja aktywacji.
- Reproducibility – możliwość powtórzenia eksperymentu i uzyskania identycznego wyniku.
- ResNet – sieć neuronowa z „połączeniami skrótowymi”, kluczowa dla wizji komputerowej.
- Retrieval (Wyszukiwanie) – proces pobierania dokumentów w systemach RAG.
- Reward Hacking – sytuacja, gdy AI znajduje „skrót” do zdobycia nagrody bez wykonania zadania.
- Right to Explanation – prawo obywatela do otrzymania wyjaśnienia decyzji podjętej przez AI.
- RLHF – uczenie przez wzmacnianie na podstawie informacji od ludzi.
- RNN (Recurrent Neural Network) – sieć rekurencyjna do danych sekwencyjnych.
- RPA (Robotic Process Automation) – automatyzacja powtarzalnych zadań biurowych.
- Sandboxing – izolowanie AI od systemów zewnętrznych w celach testowych.
- Scalability – zdolność systemu do obsługi rosnącej liczby zapytań.
- Scalable Oversight – metody nadzorowania AI przez ludzi, gdy AI staje się bardzo złożona.
- Scikit-learn – biblioteka do klasycznego uczenia maszynowego.
- Self-attention – analiza relacji między słowami w tym samym zdaniu.
- Self-Correction – zdolność modelu do naprawiania własnych błędów w trakcie generowania.
- Self-healing Code – kod, który sam naprawia swoje błędy dzięki AI.
- Self-supervised learning – model sam generuje etykiety z danych wejściowych.
- Semantic Layer – warstwa tłumacząca dane techniczne na pojęcia biznesowe.
- Semantic Search – wyszukiwanie oparte na znaczeniu, a nie na słowach kluczowych.
- Sentiment Analysis – badanie zabarwienia emocjonalnego tekstu.
- Shadow Deployment – testowanie modelu na produkcji bez wysyłania wyników do użytkownika.
- Sieć neuronowa – struktura inspirowana budową ludzkiego mózgu.
- Silna AI (AGI) – hipotetyczna inteligencja na poziomie ludzkim.
- Singularność – teoretyczny moment, w którym rozwój AI stanie się niekontrolowany.
- Słaba AI (Narrow AI) – systemy wyspecjalizowane w jednym zadaniu.
- Small Language Models (SLM) – mniejsze, szybkie modele językowe.
- Small Language Models (SLM) – trend tworzenia modeli o mocy GPT-3.5, ale mieszczących się w telefonie.
- SMOTE – technika generowania syntetycznych przykładów dla rzadkich klas.
- Soft Prompting – metoda dostrajania modelu poprzez optymalizację wektorów promptu.
- Softmax – funkcja zamieniająca wynik na prawdopodobieństwo.
- Sora – model OpenAI do generowania realistycznego wideo z tekstu.
- Sparsity (Rzadkość) – cecha macierzy, w której większość elementów to zera.
- Speech-to-Text (STT) – transkrypcja mowy na tekst.
- Stable Diffusion – popularny otwarty model generowania obrazów.
- Stable Video Diffusion – model do generowania wideo z obrazów.
- State Space Models (SSM) – nowa architektura (np. Mamba) mogąca zastąpić Transformery.
- Stemming – obcinanie końcówek słów.
- Stochastic Gradient Descent (SGD) – optymalizacja wag na losowych próbkach.
- Stochastic Parrots – krytyczne określenie LLM jako systemów powtarzających dane bez zrozumienia.
- Stochasticity – pojęcie losowości w wynikach.
- Stochastyczność – element losowości w działaniu modelu.
- Stop words – popularne słowa (np. „i”, „w”) usuwane podczas analizy.
- Style Transfer – nakładanie stylu artystycznego na zdjęcie.
- Supercomputer – klaster tysięcy GPU/TPU do trenowania największych modeli.
- Symbolic AI (Gopher AI) – klasyczna AI oparta na regułach logicznych.
- Synthetic Data – dane wygenerowane przez AI do trenowania innej AI.
- Synthetic Data Generation – tworzenie sztucznych danych zachowujących cechy prawdziwych.
- Synthetic Reasoning – generowanie „łańcuchów myśli” przez AI do nauki innych modeli.
- Systolic Array – architektura procesora zoptymalizowana pod mnożenie macierzy.
- Sztuczna Inteligencja (AI) – ogólna dziedzina nauki o tworzeniu inteligentnych maszyn.
- Sztuczna Superinteligencja (ASI) – system przewyższający ludzkie możliwości.
- T5 (Text-to-Text Transfer Transformer) – model traktujący każde zadanie NLP jako tekst.
- TDP (Thermal Design Power) – pobór mocy i wydzielanie ciepła przez sprzęt AI.
- Technological Singularity – moment, w którym AI zacznie ulepszać się sama szybciej niż my ją.
- Technological Unemployment – obawa przed utratą pracy na rzecz AI.
- Temperature – parametr kontrolujący kreatywność/losowość tekstu.
- Temporal Consistency – spójność klatek w generowanym wideo.
- Tensor – wielowymiarowa struktura danych (uogólnienie macierzy).
- TensorFlow – biblioteka do uczenia maszynowego od Google.
- Test Turinga – eksperyment sprawdzający, czy maszyna potrafi udawać człowieka.
- Text-to-3D – generowanie obiektów trójwymiarowych z promptu.
- Text-to-Image – zamiana tekstu na obraz.
- Text-to-Speech (TTS) – synteza mowy.
- Theory of Mind (Teoria Umysłu) – zdolność do przypisywania stanów mentalnych innym.
- Token – najmniejsza jednostka tekstu przetwarzana przez model.
- Token Limit – ograniczenie liczby danych wejściowych i wyjściowych.
- Tokenizacja – proces dzielenia tekstu na tokeny.
- Tokens per Second (TPS) – miara szybkości generowania tekstu przez LLM.
- TPU – jednostka dedykowana przez Google do procesów AI.
- Transfer Learning – wykorzystanie wiedzy z jednego modelu w innym zadaniu.
- Transformer – nowoczesna architektura sieci, na której bazuje ChatGPT.
- Transparency Reports – raporty firm technologicznych o bezpieczeństwie modeli.
- Tuning – proces dostrajania modelu.
- Turing Completeness – zupełność w sensie Turinga.
- U-Net – architektura sieci popularna w segmentacji obrazów medycznych.
- Uczenie Głębokie (Deep Learning) – wykorzystanie wielowarstwowych sieci neuronowych.
- Uczenie Maszynowe (Machine Learning) – poddziedzina AI oparta na danych.
- Uczenie nadzorowane (Supervised Learning) – uczenie na etykietowanych danych.
- Uczenie nienadzorowane (Unsupervised Learning) – znajdowanie wzorców w danych bez etykiet.
- Uczenie półnadzorowane – połączenie danych etykietowanych i nieetykietowanych.
- Uczenie przez wzmacnianie (Reinforcement Learning) – nauka poprzez system kar i nagród.
- Underfitting – model jest zbyt prosty, by zrozumieć dane.
- Universal Basic Income (UBI) – dochód podstawowy jako odpowiedź na automatyzację pracy.
- Value Drift – zmiana wartości modelu w miarę jego douczania.
- Vanishing Gradient Problem – problem zanikającego gradientu w głębokich sieciach.
- Variational Autoencoder (VAE) – generatywna wersja autoencodera.
- Vector Database – baza danych przechowująca embeddingi (np. Pinecone).
- Vector Database Indexing – metody przyspieszania wyszukiwania w bazach wektorowych.
- Vector Embeddings – liczbowe reprezentacje pojęć w przestrzeni.
- Virtual Assistant – asystent głosowy (np. Siri, Alexa).
- Vision Transformer (ViT) – zastosowanie architektury Transformer do obrazów.
- Vision-Language-Action (VLA) – modele sterujące robotami na podstawie poleceń wizualnych i tekstowych.
- Voice Conversion – zmiana brzmienia głosu przy zachowaniu treści.
- VRAM – pamięć karty graficznej, kluczowa dla wielkości modelu.
- Wagi (Weights) – parametry określające siłę połączeń między neuronami.
- Warstwa ukryta (Hidden Layer).
- Warstwa wejściowa (Input Layer).
- Warstwa wyjściowa (Output Layer).
- Watermarking – cyfrowe znakowanie treści wytworzonych przez AI.
- Weaponized AI – wykorzystanie sztucznej inteligencji w celach militarnych (autonomiczna broń).
- Web Crawling – systematyczne przeszukiwanie sieci w celu indeksowania treści.
- Whisper – zaawansowany system rozpoznawania mowy.
- Word2Vec – popularny algorytm tworzenia embeddingów.
- World Models – hipoteza, że LLM budują wewnętrzny model rzeczywistości.
- World Simulators – modele zdolne do symulowania fizyki świata rzeczywistego.
- YOLO (You Only Look Once) – bardzo szybki algorytm detekcji obiektów.
- Zbiór walidacyjny – służy do strojenia parametrów modelu.
- Zero-knowledge Proofs in AI – weryfikacja danych bez ich ujawniania.
- Zero-shot Learning – rozpoznawanie kategorii, których model nigdy nie widział.