Podstrona: Informatyka afektywna / Wizytówka pracownika PRz

Informatyka afektywna

Jednostka prowadząca: Katedra Informatyki i Automatyki

  • 3 semestr, informatyka st. II-go stopnia
  • ECTS: 3

Wykłady, 30 godzin

  1. Wprowadzenie do informatyki afektywnej. Historia i definicja informatyki afektywnej. Przegląd zastosowań i znaczenie emocji w interakcji człowiek-komputer. 
  2. Psychologiczne podstawy emocji. Teorie emocji (m.in. teoria podstawowych emocji, teoria dwuczynnikowa). Behawioralne i poznawcze aspekty emocji. 
  3. Metody rozpoznawania emocji – wprowadzenie. Klasyfikacja metod: analiza obrazu, śledzenie wzroku, analiza tekstu i głosu. Problemy i wyzwania w rozpoznawaniu emocji. 
  4. Analiza ekspresji twarzy – podstawy. Wprowadzenie do analizy obrazu: wykrywanie twarzy i cech kluczowych. Wprowadzenie do algorytmów rozpoznawania emocji z obrazu. 
  5. Analiza ekspresji twarzy – metody zaawansowane. Deep learning w rozpoznawaniu emocji z obrazów twarzy. Architektury sieci neuronowych używane w analizie obrazów (np. CNN). 
  6. Śledzenie wzroku – podstawy. Czym jest śledzenie wzroku i jak działa? Technologie i narzędzia do analizy ruchu gałek ocznych (np. okulografy, kamery). 
  7. Śledzenie wzroku w analizie emocji. Korelacja ruchu wzroku z emocjami użytkownika. Przykłady aplikacji: badania UX, systemy adaptacyjne. 
  8. Analiza emocji w tekście. Wykorzystanie metod NLP do analizy sentymentu i emocji. Porównanie narzędzi i algorytmów (np. BERT, VADER). 
  9. Wielomodalne podejście do rozpoznawania emocji. Łączenie analizy obrazu, ruchu wzroku, głosu i tekstu. Przykłady systemów wielomodalnych w praktyce. 
  10. Rozpoznawanie emocji w czasie rzeczywistym. Wyzwania techniczne i algorytmiczne. Wykorzystanie modeli w systemach interaktywnych. 
  11. Projektowanie afektywnych interfejsów użytkownika. Interakcja człowiek-komputer oparta na emocjach. Przykłady aplikacji (np. systemy edukacyjne, gry). 
  12. Informatyka afektywna w sztucznej inteligencji. Jak AI rozumie i reaguje na emocje? Przegląd aplikacji w chatbotach i asystentach wirtualnych. 
  13. Algorytmy generatywne i ich zastosowanie w interfejsach afektywnych. Generatywne sieci neuronowe (GAN) a emocje w obrazach i animacjach. Praktyczne przykłady generowania emocjonalnych wyrazów twarzy. 
  14. Etyka w informatyce afektywnej. Problemy związane z prywatnością, zgodą użytkownika i nadzorem. Przykłady dobrych praktyk.
  15. Podsumowanie i przegląd projektów studenckich. Dyskusja na temat wyzwań, zastosowań przyszłości.

Laboratoria, 15 godzin

  1. Wprowadzenie do narzędzi do analizy emocjiInstalacja i konfiguracja środowisk (np. Python, biblioteki: OpenCV, librosa, scikit-learn). Wykrywanie twarzy i cech kluczowych za pomocą OpenCV 
  2. Analiza emocji z ekspresji twarzyWykorzystanie OpenCV i OpenFace do analizy obrazów twarzy.  Budowa prostego klasyfikatora emocji (np. SVM). 
  3. Wykorzystanie sieci neuronowych do analizy emocji z obrazów  Implementacja modelu CNN do rozpoznawania emocji.  Testowanie modelu na zestawie danych (np. FER2013). 
  4. Analiza emocji z wideoRozpoznawanie emocji z serii klatek wideo. Przegląd narzędzi do analizy ruchu twarzy (mediapipe). 
  5. Realizacja systemu analizy emocji w czasie rzeczywistym. Wykorzystanie strumienia wideo i modeli deep learning. Integracja z kamerą lub nagranymi materiałami. 
  6. Projektowanie interaktywnego systemu opartego na emocjachStworzenie prototypu aplikacji, która reaguje na emocje użytkownika.  Przykład: interfejs adaptacyjny lub gra interaktywna. 
  7. Prezentacja projektów końcowychStudenci przedstawiają swoje projekty, omawiają zastosowane metody i wyniki. Dyskusja na temat napotkanych problemów i potencjalnych udoskonaleń. 

 

Nasze serwisy używają informacji zapisanych w plikach cookies. Korzystając z serwisu wyrażasz zgodę na używanie plików cookies zgodnie z aktualnymi ustawieniami przeglądarki, które możesz zmienić w dowolnej chwili. Więcej informacji odnośnie plików cookies.