Trainingsmodul

Grundlagen der künstlichen Intelligenz II

Unsicherheit, Grenzen und typische Fehlermodi von KI über prädiktive und generative KI-Systeme hinweg verstehen.

Trainingsmodul

Grundlagen der künstlichen Intelligenz II

Unsicherheit, Grenzen und typische Fehlermodi von KI über prädiktive und generative KI-Systeme hinweg verstehen.

Trainingsmodul

Grundlagen der künstlichen Intelligenz II

Unsicherheit, Grenzen und typische Fehlermodi von KI über prädiktive und generative KI-Systeme hinweg verstehen.

Abstrakte Visualisierung von fliessenden, geschichteten Datenwellen mit verstreuten Signalpunkten, die Unsicherheit, Variabilität und Ausfallmodi im Verhalten von KI-Systemen darstellen, anstatt deterministische Modellausgaben.

Von „das Modell hat recht“ zu „das System verhält sich unter Unsicherheit“.

KI-bezogene Entscheidungen scheitern, wenn Outputs als Fakten behandelt werden und nicht als Signale, die unter bestimmten Einschränkungen entstehen. Dieses Modul vermittelt ein praxisnahes Verständnis dafür, woher Unsicherheit stammt, wie sich Fehlermodi in realen Services zeigen und welche Evidenz Teams dabei unterstützt, über Zuverlässigkeit nachzudenken, ohne sich in falscher Sicherheit zu wiegen.

Abstrakte Visualisierung von fliessenden, geschichteten Datenwellen mit verstreuten Signalpunkten, die Unsicherheit, Variabilität und Ausfallmodi im Verhalten von KI-Systemen darstellen, anstatt deterministische Modellausgaben.

Von „das Modell hat recht“ zu „das System verhält sich unter Unsicherheit“.

KI-bezogene Entscheidungen scheitern, wenn Outputs als Fakten behandelt werden und nicht als Signale, die unter bestimmten Einschränkungen entstehen. Dieses Modul vermittelt ein praxisnahes Verständnis dafür, woher Unsicherheit stammt, wie sich Fehlermodi in realen Services zeigen und welche Evidenz Teams dabei unterstützt, über Zuverlässigkeit nachzudenken, ohne sich in falscher Sicherheit zu wiegen.

Abstrakte Visualisierung von fliessenden, geschichteten Datenwellen mit verstreuten Signalpunkten, die Unsicherheit, Variabilität und Ausfallmodi im Verhalten von KI-Systemen darstellen, anstatt deterministische Modellausgaben.

Von „das Modell hat recht“ zu „das System verhält sich unter Unsicherheit“.

KI-bezogene Entscheidungen scheitern, wenn Outputs als Fakten behandelt werden und nicht als Signale, die unter bestimmten Einschränkungen entstehen. Dieses Modul vermittelt ein praxisnahes Verständnis dafür, woher Unsicherheit stammt, wie sich Fehlermodi in realen Services zeigen und welche Evidenz Teams dabei unterstützt, über Zuverlässigkeit nachzudenken, ohne sich in falscher Sicherheit zu wiegen.

Übersicht

Übersicht

Übersicht

Viele Organisationen unterschätzen, wie stark sich das Verhalten von KI mit dem Kontext verändert: durch veränderte Eingangsdaten, operative Rahmenbedingungen, unklare Zielsetzungen oder fragile Integrationen. Fehlt Teams ein gemeinsames Verständnis der Grenzen von KI, tendieren sie entweder zu Übersteuerung („alles blockieren“) oder zu Untersteuerung („dem Output vertrauen“). Beides führt zu Problemen in Governance und Umsetzung.

Dieses Trainingsmodul erläutert die wichtigsten Quellen von Unsicherheit sowie die häufigsten Fehlermodi über verschiedene Typen von KI-Systemen hinweg (einschliesslich prädiktiver und generativer KI). Der Fokus liegt darauf zu erkennen, wie Fehler in der Praxis entstehen (z. B. durch Datenprobleme, Modellverhalten, Systeminteraktionen oder menschliche Fehlanwendung) und wie Führungskräfte, Umsetzungsverantwortliche und Auditoren fundiertere Fragen stellen und technische Artefakte realistisch einordnen können. Das Modul vermittelt keine Methoden zur Risikobeurteilung, keine Ansätze zur Lifecycle-Abgrenzung oder -Inventarisierung und kein operatives Kontrolldesign; diese Themen werden in den dafür vorgesehenen Folgemodulen sowie in den entsprechenden generischen Grundlagenmodulen behandelt.

Viele Organisationen unterschätzen, wie stark sich das Verhalten von KI mit dem Kontext verändert: durch veränderte Eingangsdaten, operative Rahmenbedingungen, unklare Zielsetzungen oder fragile Integrationen. Fehlt Teams ein gemeinsames Verständnis der Grenzen von KI, tendieren sie entweder zu Übersteuerung („alles blockieren“) oder zu Untersteuerung („dem Output vertrauen“). Beides führt zu Problemen in Governance und Umsetzung.

Dieses Trainingsmodul erläutert die wichtigsten Quellen von Unsicherheit sowie die häufigsten Fehlermodi über verschiedene Typen von KI-Systemen hinweg (einschliesslich prädiktiver und generativer KI). Der Fokus liegt darauf zu erkennen, wie Fehler in der Praxis entstehen (z. B. durch Datenprobleme, Modellverhalten, Systeminteraktionen oder menschliche Fehlanwendung) und wie Führungskräfte, Umsetzungsverantwortliche und Auditoren fundiertere Fragen stellen und technische Artefakte realistisch einordnen können. Das Modul vermittelt keine Methoden zur Risikobeurteilung, keine Ansätze zur Lifecycle-Abgrenzung oder -Inventarisierung und kein operatives Kontrolldesign; diese Themen werden in den dafür vorgesehenen Folgemodulen sowie in den entsprechenden generischen Grundlagenmodulen behandelt.

Applicable environments

Dieses Modul richtet sich an Organisationen, für die künstliche Intelligenz relevant ist. Es unterstützt Fachpersonen, die ein solides Verständnis KI-bezogener Konzepte, Begriffe und Zusammenhänge benötigen.

Zielpublikum

Zielpublikum

Zielpublikum

  • Verantwortliche für KI-Managementsysteme und Implementierende, die mit technischen Teams zusammenarbeiten

  • Fachpersonen aus Governance, Risiko und Compliance, die ein fundiertes Verständnis der KI-Domäne benötigen

  • Produktverantwortliche und Prozessverantwortliche, die für KI-gestützte Services verantwortlich sind

  • Auditoren, die ein gemeinsames Grundverständnis von KI-Systemen benötigen (nicht von Audittechnik)

  • Personen, die sich ein grundlegendes Verständnis von KI-Grundlagen aneignen möchten

  • Verantwortliche für KI-Managementsysteme und Implementierende, die mit technischen Teams zusammenarbeiten

  • Fachpersonen aus Governance, Risiko und Compliance, die ein fundiertes Verständnis der KI-Domäne benötigen

  • Produktverantwortliche und Prozessverantwortliche, die für KI-gestützte Services verantwortlich sind

  • Auditoren, die ein gemeinsames Grundverständnis von KI-Systemen benötigen (nicht von Audittechnik)

  • Personen, die sich ein grundlegendes Verständnis von KI-Grundlagen aneignen möchten

Entscheidungshilfe

Ist dieses Modul für Sie das richtige?

Es passt gut für Sie, wenn Sie...

  • verstehen möchten, weshalb KI-Ausgaben Signale und keine Fakten sind.

  • ein realistisches mentales Modell von Unsicherheit in prädiktiver und generativer KI benötigen.

  • häufige Fehlermodi von KI in realen operativen Kontexten erkennen wollen.

  • über Zuverlässigkeit, Grenzen und Vertrauenswürdigkeit nachdenken müssen, ohne sich in falscher Sicherheit zu wiegen.

  • KI-Verhalten interpretieren möchten, ohne sich auf Herstellerangaben oder spezifische Tools zu verlassen.

  • verstehen möchten, weshalb KI-Ausgaben Signale und keine Fakten sind.

  • ein realistisches mentales Modell von Unsicherheit in prädiktiver und generativer KI benötigen.

  • häufige Fehlermodi von KI in realen operativen Kontexten erkennen wollen.

  • über Zuverlässigkeit, Grenzen und Vertrauenswürdigkeit nachdenken müssen, ohne sich in falscher Sicherheit zu wiegen.

  • KI-Verhalten interpretieren möchten, ohne sich auf Herstellerangaben oder spezifische Tools zu verlassen.

Wenn die meisten der oben genannten Punkte zutreffen, ist dieses Modul wahrscheinlich gut geeignet.

Es passt möglicherweise weniger gut für Sie, wenn Sie...

  • auf der Suche nach Methoden zur KI-Risikobeurteilung oder zur Ausgestaltung von Kontrollen sind.

  • statistische Vertiefungen oder modellnahe Optimierungstechniken erwarten.

  • konkrete Implementierungs-Playbooks, Monitoring-Setups oder detaillierte Lifecycle-Prozesse suchen.

  • bereits über vertiefte KI-Forschungs- oder Data-Science-Expertise verfügen.

  • auf der Suche nach Methoden zur KI-Risikobeurteilung oder zur Ausgestaltung von Kontrollen sind.

  • statistische Vertiefungen oder modellnahe Optimierungstechniken erwarten.

  • konkrete Implementierungs-Playbooks, Monitoring-Setups oder detaillierte Lifecycle-Prozesse suchen.

  • bereits über vertiefte KI-Forschungs- oder Data-Science-Expertise verfügen.

Agenda

Agenda

Agenda

  • Warum Einschränkungen und Unsicherheit zentral für die KI-Governance sind

  • Woher Unsicherheit in KI-Systemen stammt

  • Grenzen des Modellverhaltens bei prädiktivem Machine Learning

  • Grenzen des Modellverhaltens bei generativer KI

  • Datenbezogene Fehlermodi

  • Systemische und sozio-technische Fehlermodi

  • Workshop (fallbasiert)

Details...

  • Warum Einschränkungen und Unsicherheit zentral für die KI-Governance sind

  • Woher Unsicherheit in KI-Systemen stammt

  • Grenzen des Modellverhaltens bei prädiktivem Machine Learning

  • Grenzen des Modellverhaltens bei generativer KI

  • Datenbezogene Fehlermodi

  • Systemische und sozio-technische Fehlermodi

  • Workshop (fallbasiert)

Details...

  • Warum Einschränkungen und Unsicherheit zentral für die KI-Governance sind

  • Woher Unsicherheit in KI-Systemen stammt

  • Grenzen des Modellverhaltens bei prädiktivem Machine Learning

  • Grenzen des Modellverhaltens bei generativer KI

  • Datenbezogene Fehlermodi

  • Systemische und sozio-technische Fehlermodi

  • Workshop (fallbasiert)

Details...

Was Sie lernen

Was Sie lernen

Was Sie lernen

Zentrale Lernergebnisse

  • Die wichtigsten Quellen von Unsicherheit in KI-Systemen erläutern und aufzeigen, wie sie Ergebnisse beeinflussen.

  • Häufige Fehlermodi in prädiktiven Machine-Learning-Modellen und generativen KI-Systemen erkennen.

  • Sozio-technische Fehlermodi beschreiben, bei denen menschliche und organisationale Faktoren mit KI interagieren.

  • Die wichtigsten Quellen von Unsicherheit in KI-Systemen erläutern und aufzeigen, wie sie Ergebnisse beeinflussen.

  • Häufige Fehlermodi in prädiktiven Machine-Learning-Modellen und generativen KI-Systemen erkennen.

  • Sozio-technische Fehlermodi beschreiben, bei denen menschliche und organisationale Faktoren mit KI interagieren.

Zusätzliche Fähigkeiten

  • Datenpipeline-bedingte Ursachen für Modelldrift und Bias identifizieren

  • Strukturierte Failure-Mode-Durchgänge durchführen, um vorherzusehen, wie sich die KI-Leistung verschlechtern kann

  • Datenpipeline-bedingte Ursachen für Modelldrift und Bias identifizieren

  • Strukturierte Failure-Mode-Durchgänge durchführen, um vorherzusehen, wie sich die KI-Leistung verschlechtern kann

Enthaltene Unterlagen

Enthaltene Unterlagen

Enthaltene Unterlagen

Lernmaterialien

  • Präsentation

  • Arbeitsbuch

Vorlagen & Tools

Praxisnahe, wiederverwendbare Artefakte, mit denen sich die Inhalte des Moduls direkt auf die eigene Organisation anwenden lassen.

  • KI-Unsicherheitslandkarte

  • Katalog von Fehlermodi

  • Case-Walkthrough-Canvas

  • Evidenz-Fragenset für technische Walkthroughs

  • KI-gestütztes Prompt-Set zur Zusammenfassung von Modell- und Systemartefakten

  • KI-Unsicherheitslandkarte

  • Katalog von Fehlermodi

  • Case-Walkthrough-Canvas

  • Evidenz-Fragenset für technische Walkthroughs

  • KI-gestütztes Prompt-Set zur Zusammenfassung von Modell- und Systemartefakten

Bestätigung

  • Teilnahmebestätigung

Modul-ID

HAM-AI-DF-02

Zielgruppe

Auditor

Manager

Leitende Führungskraft

Sprache

Englisch

Durchführung

Live-virtuell

Dauer

7 Std.

Listenpreis

CHF 550

Exkl. MwSt. Mehrwertsteuer kann je nach Standort und Status des Kunden anfallen.

Durchführung & Lernformat

Durchführung & Lernformat

Durchführung & Lernformat

Virtuelle Live-Lektionen

Dieses Modul wird live durchgeführt, wobei der Schwerpunkt auf Diskussionen, praktischen Anwendungen und der direkten Interaktion mit dem Dozenten liegt.

Die Sitzungen basieren auf realistischen Beispielen, verdeutlichen Konzepte im Kontext und wenden Methoden direkt auf die organisatorischen Gegebenheiten der Teilnehmer an.

Massgeschneiderte Formate

Für Organisationen mit spezifischen Einschränkungen oder Lernzielen kann das Modul in Format und Umfang angepasst werden, einschliesslich interner Durchführung und kontextbezogenem Case-Material.

Nicht sicher, ob dies für Sie passt?

Nicht sicher, ob dies für Sie passt?

Nicht sicher, ob dies für Sie passt?

Für ein optimales Lernerlebnis

Empfehlungen zur Vorbereitung

Dieses Modul ist Teil eines modularen Trainingsansatzes. Inhalte werden bewusst auf einzelne Module verteilt und nicht vollständig wiederholt, um unnötige Redundanzen zu vermeiden. Jedes Modul ist in sich abgeschlossen und kann unabhängig besucht werden. Falls bestimmte Vorkenntnisse oder Erfahrungen hilfreich sind, ist dies unten vermerkt, damit Sie selbst entscheiden können, ob eine Vorbereitung für Sie sinnvoll ist.

Für ein optimales Lernerlebnis

Empfehlungen zur Vorbereitung

Dieses Modul ist Teil eines modularen Trainingsansatzes. Inhalte werden bewusst auf einzelne Module verteilt und nicht vollständig wiederholt, um unnötige Redundanzen zu vermeiden. Jedes Modul ist in sich abgeschlossen und kann unabhängig besucht werden. Falls bestimmte Vorkenntnisse oder Erfahrungen hilfreich sind, ist dies unten vermerkt, damit Sie selbst entscheiden können, ob eine Vorbereitung für Sie sinnvoll ist.

Für ein optimales Lernerlebnis

Empfehlungen zur Vorbereitung

Dieses Modul ist Teil eines modularen Trainingsansatzes. Inhalte werden bewusst auf einzelne Module verteilt und nicht vollständig wiederholt, um unnötige Redundanzen zu vermeiden. Jedes Modul ist in sich abgeschlossen und kann unabhängig besucht werden. Falls bestimmte Vorkenntnisse oder Erfahrungen hilfreich sind, ist dies unten vermerkt, damit Sie selbst entscheiden können, ob eine Vorbereitung für Sie sinnvoll ist.

Vorausgesetzte Kenntnisse

Dieses Modul setzt grundlegende Vertrautheit mit zentralen KI-Konzepten und Systemtypen voraus (Daten, Training vs. Inferenz sowie gängige KI-Architekturmuster). Teilnehmende sollten zudem in der Lage sein, technische Beschreibungen auf hoher Ebene (Services, APIs, Datenspeicher) zu lesen und einzuordnen, ohne diese selbst implementieren zu müssen.

Hilfreiche Vorkenntnisse sind:

  • Grundverständnis digitaler Services und ihrer Abhängigkeiten (Applikationen, Schnittstellen, Datenflüsse)

  • Vertrautheit mit gängigen IT-Kontrollkonzepten (z. B. Zugriffskontrolle, Protokollierung, Verschlüsselung) auf konzeptioneller Ebene





Dieses Modul setzt grundlegende Vertrautheit mit zentralen KI-Konzepten und Systemtypen voraus (Daten, Training vs. Inferenz sowie gängige KI-Architekturmuster). Teilnehmende sollten zudem in der Lage sein, technische Beschreibungen auf hoher Ebene (Services, APIs, Datenspeicher) zu lesen und einzuordnen, ohne diese selbst implementieren zu müssen.

Hilfreiche Vorkenntnisse sind:

  • Grundverständnis digitaler Services und ihrer Abhängigkeiten (Applikationen, Schnittstellen, Datenflüsse)

  • Vertrautheit mit gängigen IT-Kontrollkonzepten (z. B. Zugriffskontrolle, Protokollierung, Verschlüsselung) auf konzeptioneller Ebene





Vorbereitungsmodule

Supporting modules (optional)

Helpful if you want to deepen related skills, but not required to participate effectively.

Grundlagen der künstlichen Intelligenz I

Zentrale KI-Konzepte, KI-Systemtypen und die technischen Bausteine verstehen, die modernen KI-gestützten Produkten und Services zugrunde liegen.

7 Std.

Grundlagen der künstlichen Intelligenz I

Zentrale KI-Konzepte, KI-Systemtypen und die technischen Bausteine verstehen, die modernen KI-gestützten Produkten und Services zugrunde liegen.

7 Std.

Grundlagen der künstlichen Intelligenz I

Zentrale KI-Konzepte, KI-Systemtypen und die technischen Bausteine verstehen, die modernen KI-gestützten Produkten und Services zugrunde liegen.

7 Std.

Kontinuierliches Lernen

Weiterführende Module

Kontinuierliches Lernen

Weiterführende Module

Kontinuierliches Lernen

Weiterführende Module

Nach Abschluss dieses Moduls eignen sich die folgenden Module ideal, um Ihr Wissen weiter zu vertiefen.

KI-Systeme: Bewertung von Risiken und Auswirkungen

Verstehen Sie, wie man die Auswirkungen und Schäden durch KI bewertet, Ergebnisse dokumentiert und sie mit Risikoentscheidungen in einem KI-Managementsystem verknüpft.

Dauer

7 Std.

Listenpreis

CHF 550

Modul anzeigen

KI-Systeme: Bewertung von Risiken und Auswirkungen

Verstehen Sie, wie man die Auswirkungen und Schäden durch KI bewertet, Ergebnisse dokumentiert und sie mit Risikoentscheidungen in einem KI-Managementsystem verknüpft.

Dauer

7 Std.

Listenpreis

CHF 550

Modul anzeigen

KI-Systeme: Bewertung von Risiken und Auswirkungen

Verstehen Sie, wie man die Auswirkungen und Schäden durch KI bewertet, Ergebnisse dokumentiert und sie mit Risikoentscheidungen in einem KI-Managementsystem verknüpft.

Dauer

7 Std.

Listenpreis

CHF 550

Modul anzeigen

KI-Systeme: Umfang, Lebens­zyklus & Inventar

Definieren Sie den Umfang des KI-Systems, die Grenzen des Lebenszyklus und ein gepflegtes Inventar des KI-Systems, das mit ISO/IEC 42001 abgestimmt ist.

Dauer

7 Std.

Listenpreis

CHF 550

Modul anzeigen

KI-Systeme: Umfang, Lebens­zyklus & Inventar

Definieren Sie den Umfang des KI-Systems, die Grenzen des Lebenszyklus und ein gepflegtes Inventar des KI-Systems, das mit ISO/IEC 42001 abgestimmt ist.

Dauer

7 Std.

Listenpreis

CHF 550

Modul anzeigen

KI-Systeme: Umfang, Lebens­zyklus & Inventar

Definieren Sie den Umfang des KI-Systems, die Grenzen des Lebenszyklus und ein gepflegtes Inventar des KI-Systems, das mit ISO/IEC 42001 abgestimmt ist.

Dauer

7 Std.

Listenpreis

CHF 550

Modul anzeigen

Betriebliche Steuerung von KI-Systemen

Verstehen Sie, wie Betriebsabläufe für KI-Systeme über Bereitstellung, Änderung und Überwachung hinweg definiert, implementiert und aufrechterhalten werden können.

Dauer

7 Std.

Listenpreis

CHF 550

Modul anzeigen

Betriebliche Steuerung von KI-Systemen

Verstehen Sie, wie Betriebsabläufe für KI-Systeme über Bereitstellung, Änderung und Überwachung hinweg definiert, implementiert und aufrechterhalten werden können.

Dauer

7 Std.

Listenpreis

CHF 550

Modul anzeigen

Betriebliche Steuerung von KI-Systemen

Verstehen Sie, wie Betriebsabläufe für KI-Systeme über Bereitstellung, Änderung und Überwachung hinweg definiert, implementiert und aufrechterhalten werden können.

Dauer

7 Std.

Listenpreis

CHF 550

Modul anzeigen

Ziele und Leistungs­management

Erlernen Sie die Grundlagen der Identifikation, Bewertung, Behandlung und Überwachung von Risiken und Chancen in Managementsystemen.

Dauer

7 Std.

Listenpreis

CHF 550

Modul anzeigen

Ziele und Leistungs­management

Erlernen Sie die Grundlagen der Identifikation, Bewertung, Behandlung und Überwachung von Risiken und Chancen in Managementsystemen.

Dauer

7 Std.

Listenpreis

CHF 550

Modul anzeigen

Ziele und Leistungs­management

Erlernen Sie die Grundlagen der Identifikation, Bewertung, Behandlung und Überwachung von Risiken und Chancen in Managementsystemen.

Dauer

7 Std.

Listenpreis

CHF 550

Modul anzeigen

Office scene with people standing, walking and sitting

Bereit, Ihre Managementsysteme zu verbessern?

Wir helfen Ihnen, ISO-Anforderungen wirksam in der täglichen Praxis umzusetzen.

Office scene with people standing, walking and sitting

Bereit, Ihre Managementsysteme zu verbessern?

Wir helfen Ihnen, ISO-Anforderungen wirksam in der täglichen Praxis umzusetzen.

Office scene with people standing, walking and sitting

Bereit, Ihre Managementsysteme zu verbessern?

Wir helfen Ihnen, ISO-Anforderungen wirksam in der täglichen Praxis umzusetzen.