AI Ethics – zasady moralne tworzenia AI.
Dziedzina zajmująca się oceną i wskazówkami moralnymi dotyczącymi projektowania, tworzenia oraz wdrażania systemów sztucznej inteligencji. Koncentruje się na zapewnieniu, że technologie AI służą dobru społecznemu, szanują prawa człowieka oraz minimalizują ryzyko szkód związanych z ich użyciem. W ramach tej dziedziny formułowane są normy dotyczące przejrzystości działań systemów AI, odpowiedzialności za ich decyzje, a także ochrony prywatności i niedyskryminacji użytkowników.
Podstawowe założenia obejmują zachowanie sprawiedliwości, zapobieganie uprzedzeniom algorytmicznym, zapewnienie bezpieczeństwa oraz promowanie odpowiedzialnego wykorzystania sztucznej inteligencji. W praktyce zasady te wpływają na procesy badawcze, programistyczne oraz regulacje prawne, które mają na celu ograniczenie negatywnych konsekwencji technologicznych innowacji. Istotnym aspektem jest również dialog między twórcami AI, prawodawcami oraz społeczeństwem, co pozwala na adaptację zasad moralnych do dynamicznie zmieniającego się kontekstu technologicznego.