Neural Architecture Search (NAS) – używanie AI do projektowania lepszych architektur AI.
Neural Architecture Search to dziedzina zajmująca się automatycznym projektowaniem struktur sieci neuronowych przy użyciu metod sztucznej inteligencji. Celem jest optymalizacja architektury modeli pod kątem wydajności i efektywności, co pozwala na uzyskanie lepszych rezultatów niż standardowe ręczne projektowanie. Proces ten polega na eksploracji przestrzeni możliwych architektur, często przy wykorzystaniu algorytmów uczenia maszynowego, takich jak uczenie ze wzmocnieniem, ewolucyjne metody optymalizacji czy strategie wyszukiwania bayesowskiego.
Metody wykorzystywane w ramach takich poszukiwań umożliwiają automatyczne dostosowanie parametrów architektury, jak liczba warstw, typy połączeń czy rozmiary filtrów, tak aby nauka modelu była jak najbardziej skuteczna dla określonego zadania. Automatyzacja tego procesu redukuje czas i konieczność eksperckiej ingerencji w projektowanie sieci, co jest szczególnie istotne w zastosowaniach wymagających bardzo złożonych lub niestandardowych rozwiązań. Dzięki temu Neural Architecture Search przyczynia się do szybszego rozwoju i doskonalenia technik uczenia głębokiego.