Jednostka prowadząca: Katedra Informatyki i Automatyki
- 3 semestr, informatyka st. II-go stopnia
- ECTS: 3
Wykłady, 30 godzin
- Wprowadzenie do informatyki afektywnej. Historia i definicja informatyki afektywnej. Przegląd zastosowań i znaczenie emocji w interakcji człowiek-komputer.
- Psychologiczne podstawy emocji. Teorie emocji (m.in. teoria podstawowych emocji, teoria dwuczynnikowa). Behawioralne i poznawcze aspekty emocji.
- Metody rozpoznawania emocji – wprowadzenie. Klasyfikacja metod: analiza obrazu, śledzenie wzroku, analiza tekstu i głosu. Problemy i wyzwania w rozpoznawaniu emocji.
- Analiza ekspresji twarzy – podstawy. Wprowadzenie do analizy obrazu: wykrywanie twarzy i cech kluczowych. Wprowadzenie do algorytmów rozpoznawania emocji z obrazu.
- Analiza ekspresji twarzy – metody zaawansowane. Deep learning w rozpoznawaniu emocji z obrazów twarzy. Architektury sieci neuronowych używane w analizie obrazów (np. CNN).
- Śledzenie wzroku – podstawy. Czym jest śledzenie wzroku i jak działa? Technologie i narzędzia do analizy ruchu gałek ocznych (np. okulografy, kamery).
- Śledzenie wzroku w analizie emocji. Korelacja ruchu wzroku z emocjami użytkownika. Przykłady aplikacji: badania UX, systemy adaptacyjne.
- Analiza emocji w tekście. Wykorzystanie metod NLP do analizy sentymentu i emocji. Porównanie narzędzi i algorytmów (np. BERT, VADER).
- Wielomodalne podejście do rozpoznawania emocji. Łączenie analizy obrazu, ruchu wzroku, głosu i tekstu. Przykłady systemów wielomodalnych w praktyce.
- Rozpoznawanie emocji w czasie rzeczywistym. Wyzwania techniczne i algorytmiczne. Wykorzystanie modeli w systemach interaktywnych.
- Projektowanie afektywnych interfejsów użytkownika. Interakcja człowiek-komputer oparta na emocjach. Przykłady aplikacji (np. systemy edukacyjne, gry).
- Informatyka afektywna w sztucznej inteligencji. Jak AI rozumie i reaguje na emocje? Przegląd aplikacji w chatbotach i asystentach wirtualnych.
- Algorytmy generatywne i ich zastosowanie w interfejsach afektywnych. Generatywne sieci neuronowe (GAN) a emocje w obrazach i animacjach. Praktyczne przykłady generowania emocjonalnych wyrazów twarzy.
- Etyka w informatyce afektywnej. Problemy związane z prywatnością, zgodą użytkownika i nadzorem. Przykłady dobrych praktyk.
- Podsumowanie i przegląd projektów studenckich. Dyskusja na temat wyzwań, zastosowań przyszłości.
Laboratoria, 15 godzin
- Wprowadzenie do narzędzi do analizy emocji. Instalacja i konfiguracja środowisk (np. Python, biblioteki: OpenCV, librosa, scikit-learn). Wykrywanie twarzy i cech kluczowych za pomocą OpenCV
- Analiza emocji z ekspresji twarzy. Wykorzystanie OpenCV i OpenFace do analizy obrazów twarzy. Budowa prostego klasyfikatora emocji (np. SVM).
- Wykorzystanie sieci neuronowych do analizy emocji z obrazów Implementacja modelu CNN do rozpoznawania emocji. Testowanie modelu na zestawie danych (np. FER2013).
- Analiza emocji z wideo. Rozpoznawanie emocji z serii klatek wideo. Przegląd narzędzi do analizy ruchu twarzy (mediapipe).
- Realizacja systemu analizy emocji w czasie rzeczywistym. Wykorzystanie strumienia wideo i modeli deep learning. Integracja z kamerą lub nagranymi materiałami.
- Projektowanie interaktywnego systemu opartego na emocjach. Stworzenie prototypu aplikacji, która reaguje na emocje użytkownika. Przykład: interfejs adaptacyjny lub gra interaktywna.
- Prezentacja projektów końcowych. Studenci przedstawiają swoje projekty, omawiają zastosowane metody i wyniki. Dyskusja na temat napotkanych problemów i potencjalnych udoskonaleń.

