-
Die teilnehmende Person (TN) hat Kenntnisse in Python (Seminar Python Grundlagen)
-
Sie kann ein Python Skript öffnen, editieren und in Spyder oder Jupyter Notebook ausführen
-
Sie kann Daten von der Festplatte mit Python einlesen (pandas)
-
Sie kennt normalverteilte Zufallsvariablen und weiss, was eine Varianz/Standardabweichung und ein Erwartungswert ist
-
Sie hat am Seminar "Python - Spezialisierung: Künstliche Intelligenz 1 - Maschinelles Lernen in der Praxis" o.ä. teilgenommen und kann bereits mit PyTorch umgehen (Beherrschung von Tensoren, Netzarchitekturen, Hyperparametern)
Hier sind Sie richtig, wenn Sie ...
-
mit Python Deep Learning in Form von Convolutional Neural Networks (CNN) umsetzen wollen, um Bilder / Fotos zu erkennen und weiter zu verarbeiten
-
damit Texte maschinell sinnvoll einlesen und verarbeiten wollen (Texte kategorisieren, analysieren bis hin zur Corpus Analyse, Sentiments erkennen, Kodierungstechniken auf dem Weg zu ChatPGT nachvollziehen)
Sie ...
-
lernen den theoretischen Hintergrund der genannten Methoden soweit notwendig kennen
-
können praktische Probleme mit Hilfe der genannten Python Pakete lösen und Prototypen entwickeln
-
können konkret: Multi-Layer-Perceptrons, isnbes. CNN, trainieren und danach ausrollen
-
Basiswissen Bildverarbeitung: Feature Detection mit Convolution, Pooling, Dimensionsreduktionen im Lichte gewählter Parameter wie Stride u.a.,
-
Populäre Filtertypen: Gaussian Blurr u.a.
-
Berühmte CNN: LeNet u.a.
-
Cross Entropy, XAI, Saliency Maps
-
Generative Adversarial Networks & CNN
-
FALLSTUDIEN: Unterscheide Brillenträger, baue Bildgeneratornetz und nutze Vektorarithmetik im latenten Raum um Bilder zu mischen
-
Basiswissen Textverarbeitung: Tokenization Tricks, Count Based Vectorizers, Naive Bayes
-
Dense Vectorizers, Word2Vec
-
historische Computerlinguistik, Sentiment Analysis, VADER
-
FALLSTUDIE: Training Word2Vec auf Romanauszügen, Auswertung der Distanzen,
-
Attention in der Urform und Weiterentwicklungen (cross/causal attn, scaling u.a.), Abgrenzung zu festen Gewichtungen
-
Weitere Wesensmerkmale der Transformer Architektur (Normalisierungslayer, Positional Encoding, u.a.)
-
FALLSTUDIE: Wir trainieren ein Large Language Model (LLM) anhand eines Romans
-
GELU, Masking, Ressourcenmonitoring
-
FALLSTUDIE: Wir laden ChatGPT2 herunter und vergleichen seine Performance mit unserem LLM
-
FALLSTUDIE: Wir bauen unser eigenes DeepL
-
EU KI Verordnung, KI-Möglichkeiten für das BKA
-
Tiefenanalyse BERT & ChatGPT, Fine Tuning LLM, x-shot Learning
-
Grenzen und Möglichkeiten LLM, Ausblick: Interview mit ChatGPT Chefentwickler Turley
-
Das Seminar wird von Prof. Dr. Frank Lehrbass durchgeführt.