Schulungsmodul
Schulungsmodul
Schulungsmodul
Risiko-, Wirkungs- und Schadensbewertung von KI
Verstehen Sie, wie man die Auswirkungen und Schäden durch KI bewertet, Ergebnisse dokumentiert und sie mit Risikoentscheidungen in einem KI-Managementsystem verknüpft.
Verstehen
Umsetzen
Verwalten
Audit


Von abstrakten „KI-Risiken“ zu fundierten Entscheiden über Auswirkungen und Schäden übergehen
Von abstrakten „KI-Risiken“ zu fundierten Entscheiden über Auswirkungen und Schäden übergehen
KI-bezogene Auswirkungen werden oft allgemein diskutiert, aber Governance-Entscheidungen erfordern spezifische, nachvollziehbare Argumentationen. Dieses Modul zeigt, wie man Impact- und Schadensbewertungen für Genehmigungen, Aufsicht und Audits nutzbar machen kann, ohne sie in Bürokratie zu verwandeln.
KI-bezogene Auswirkungen werden oft allgemein diskutiert, aber Governance-Entscheidungen erfordern spezifische, nachvollziehbare Argumentationen. Dieses Modul zeigt, wie man Impact- und Schadensbewertungen für Genehmigungen, Aufsicht und Audits nutzbar machen kann, ohne sie in Bürokratie zu verwandeln.
Übersicht des Schulungsmoduls
Viele Organisationen verfügen über Risikoregister, die „KI“ erwähnen, aber nicht konkret erklären können, wer möglicherweise geschädigt werden könnte, wie der Schaden auftreten könnte und was das Restrisiko akzeptabel macht. Das Ergebnis sind fragile Genehmigungsentscheidungen, unklare Verantwortlichkeiten und Sicherungsmaßnahmen, die sich auf die Anwesenheit von Dokumenten statt auf die Qualität der Entscheidungen konzentrieren.
Dieses ISO/IEC 42001-Spezialisierungsmodul konzentriert sich darauf, wie der Standard von Organisationen erwartet, die Auswirkungen und Schäden im Zusammenhang mit KI zu bewerten und die resultierenden Entscheidungen zu dokumentieren. Es wendet generische Risikomanagementmethoden an (ohne diese erneut zu lehren) und bleibt getrennt von KI-Konzepten, Lebenszyklus-Inventararbeiten und der Implementierung operativer Kontrollen.
Viele Organisationen verfügen über Risikoregister, die „KI“ erwähnen, aber nicht konkret erklären können, wer möglicherweise geschädigt werden könnte, wie der Schaden auftreten könnte und was das Restrisiko akzeptabel macht. Das Ergebnis sind fragile Genehmigungsentscheidungen, unklare Verantwortlichkeiten und Sicherungsmaßnahmen, die sich auf die Anwesenheit von Dokumenten statt auf die Qualität der Entscheidungen konzentrieren.
Dieses ISO/IEC 42001-Spezialisierungsmodul konzentriert sich darauf, wie der Standard von Organisationen erwartet, die Auswirkungen und Schäden im Zusammenhang mit KI zu bewerten und die resultierenden Entscheidungen zu dokumentieren. Es wendet generische Risikomanagementmethoden an (ohne diese erneut zu lehren) und bleibt getrennt von KI-Konzepten, Lebenszyklus-Inventararbeiten und der Implementierung operativer Kontrollen.
Zielpublikum
AI-Managementsystem-Manager und -Implementierer (ISO/IEC 42001)
Fachleute für Risiko, Compliance, Datenschutz und Produktgovernance, die mit KI-gestützten Prozessen arbeiten
Kontrollinhaber und Systeminhaber, die für die Genehmigung der KI-Einführung verantwortlich sind
Interne Auditoren und Fachleute für Qualitätssicherung, die die ISO/IEC 42001-Bereitschaft und Systemwirksamkeit überprüfen
AI-Managementsystem-Manager und -Implementierer (ISO/IEC 42001)
Fachleute für Risiko, Compliance, Datenschutz und Produktgovernance, die mit KI-gestützten Prozessen arbeiten
Kontrollinhaber und Systeminhaber, die für die Genehmigung der KI-Einführung verantwortlich sind
Interne Auditoren und Fachleute für Qualitätssicherung, die die ISO/IEC 42001-Bereitschaft und Systemwirksamkeit überprüfen
Agenda
Was ISO/IEC 42001 unter Risiko-, Auswirkungen- und Schädenbewertung versteht
Unterscheidung zwischen AI-spezifischer Auswirkungen-/Schädensbewertung und generischer Unternehmensrisikobewertung
Wo Bewertungsoutputs erwartet werden, um Governance-Entscheidungen und Kontrollen zu informieren
Definition der Bewertungseinheit und Grenzen
Was genau bewertet wird: AI-System, Anwendungsfall, Bereitstellungskontext, Nutzer und betroffene Parteien
Grenzentscheidungen, die die Bewertung verändern (Schnittstellen, menschliches Eingreifen, nachgelagerte Nutzung)
Auswirkungspfade und Schadenskategorien bei der Nutzung von AI
Vom Systemverhalten zu den realen Auswirkungen (Fehler, Missbrauch, unfaire Ergebnisse, Nebeneffekte der Automatisierung)
Typische Schadenskategorien und wer geschädigt werden kann (Einzelpersonen, Gruppen, Organisationen, weiteres Umfeld)
Anwendung der Risikomethode der Organisation auf AI-Schäden
Verwandlung von Schadensszenarien in klare Risikostatements und Verknüpfung mit bestehenden Risikokriterien
Erfassung von Annahmen, Unsicherheiten und Vertrauen auf eine Weise, die Entscheidungen unterstützt
Behandlung und Entscheidungsrationalität in ISO/IEC 42001-Terminologie
Verbindung von Bewertungsergebnissen mit Einschränkungen, Kontrollen und Nutzungsbedingungen (ohne Kontrollgestaltung)
Akzeptanz von Restrisik, Eskalation und Zustimmungsnachweisen
Dokumentierte Informationen und Rückverfolgbarkeitserwartungen
Mindestnützliche Artefakte: Bewertungsdokumentation, Entscheidungsprotokoll, Überprüfungsauslöser, Änderungsgeschichte
Rückverfolgbarkeit zu Verpflichtungen, internen Anforderungen und Überwachungsinputs (ohne Dokumentenarchitektur zu unterrichten)
Audit-perspektive: Wie „Gut“ in Beweisform aussieht (ohne Audit-Handwerk)
Übliche Beweismuster, die Auditoren für Auswirkungen-/Schädensbewertung und Genehmigungen erwarten
Typische Ausfallmodi: allgemeine Aussagen, fehlende betroffene Parteien, unbeaufsichtigte Annahmen
Workshop (fallbasiert)
Erstellen Sie eine Auswirkungen- & Schädensbewertung für einen bereitgestellten AI-Anwendungsfall und verbinden Sie sie mit Risikoentscheidungen
Peer Review für Klarheit, Rückverfolgbarkeit und Governance-Bereitschaft (fallbasiert, nicht organisationsspezifisch)
Was ISO/IEC 42001 unter Risiko-, Auswirkungen- und Schädenbewertung versteht
Unterscheidung zwischen AI-spezifischer Auswirkungen-/Schädensbewertung und generischer Unternehmensrisikobewertung
Wo Bewertungsoutputs erwartet werden, um Governance-Entscheidungen und Kontrollen zu informieren
Definition der Bewertungseinheit und Grenzen
Was genau bewertet wird: AI-System, Anwendungsfall, Bereitstellungskontext, Nutzer und betroffene Parteien
Grenzentscheidungen, die die Bewertung verändern (Schnittstellen, menschliches Eingreifen, nachgelagerte Nutzung)
Auswirkungspfade und Schadenskategorien bei der Nutzung von AI
Vom Systemverhalten zu den realen Auswirkungen (Fehler, Missbrauch, unfaire Ergebnisse, Nebeneffekte der Automatisierung)
Typische Schadenskategorien und wer geschädigt werden kann (Einzelpersonen, Gruppen, Organisationen, weiteres Umfeld)
Anwendung der Risikomethode der Organisation auf AI-Schäden
Verwandlung von Schadensszenarien in klare Risikostatements und Verknüpfung mit bestehenden Risikokriterien
Erfassung von Annahmen, Unsicherheiten und Vertrauen auf eine Weise, die Entscheidungen unterstützt
Behandlung und Entscheidungsrationalität in ISO/IEC 42001-Terminologie
Verbindung von Bewertungsergebnissen mit Einschränkungen, Kontrollen und Nutzungsbedingungen (ohne Kontrollgestaltung)
Akzeptanz von Restrisik, Eskalation und Zustimmungsnachweisen
Dokumentierte Informationen und Rückverfolgbarkeitserwartungen
Mindestnützliche Artefakte: Bewertungsdokumentation, Entscheidungsprotokoll, Überprüfungsauslöser, Änderungsgeschichte
Rückverfolgbarkeit zu Verpflichtungen, internen Anforderungen und Überwachungsinputs (ohne Dokumentenarchitektur zu unterrichten)
Audit-perspektive: Wie „Gut“ in Beweisform aussieht (ohne Audit-Handwerk)
Übliche Beweismuster, die Auditoren für Auswirkungen-/Schädensbewertung und Genehmigungen erwarten
Typische Ausfallmodi: allgemeine Aussagen, fehlende betroffene Parteien, unbeaufsichtigte Annahmen
Workshop (fallbasiert)
Erstellen Sie eine Auswirkungen- & Schädensbewertung für einen bereitgestellten AI-Anwendungsfall und verbinden Sie sie mit Risikoentscheidungen
Peer Review für Klarheit, Rückverfolgbarkeit und Governance-Bereitschaft (fallbasiert, nicht organisationsspezifisch)
Modul-ID
HAM-AI-S-02
Modultyp
Managementsystem
Domain:
Künstliche Intelligenz
Zielgruppe:
Auditor
Manager
Verfügbar in:
Englisch
Dauer:
7 Std.
Listenpreis:
CHF 550
Exkl. MwSt. Die Mehrwertsteuer kann je nach Standort und Status des Kunden anfallen.
Was Sie erhalten
Was Sie lernen
Erwartungen der ISO/IEC 42001 zur Bewertung von KI-Auswirkungen und -Schäden interpretieren und diese in ein KI-Managementsystem einordnen
Eine praktische Bewertungseinheit (System/Nutzungsfall/Kontext) definieren und relevante betroffene Parteien identifizieren
Glaubwürdige Schadensszenarien und Wirkungspfade in einer Weise beschreiben, die Governance-Entscheidungen unterstützt
Die vorhandenen Risikokriterien ihrer Organisation auf KI-Schadensszenarien anwenden und die Begründung dokumentieren, ohne parallele Bewertungsschemata zu erfinden
Revisionsbereite dokumentierte Informationen erstellen, die die Rückverfolgbarkeit von der Bewertung bis zu Entscheidungen und Folgemaßnahmen zeigen
Häufige Implementierungslücken und „Papierbewertungen“ erkennen, die bei Überprüfung (Management oder Audit) scheitern
Erwartungen der ISO/IEC 42001 zur Bewertung von KI-Auswirkungen und -Schäden interpretieren und diese in ein KI-Managementsystem einordnen
Eine praktische Bewertungseinheit (System/Nutzungsfall/Kontext) definieren und relevante betroffene Parteien identifizieren
Glaubwürdige Schadensszenarien und Wirkungspfade in einer Weise beschreiben, die Governance-Entscheidungen unterstützt
Die vorhandenen Risikokriterien ihrer Organisation auf KI-Schadensszenarien anwenden und die Begründung dokumentieren, ohne parallele Bewertungsschemata zu erfinden
Revisionsbereite dokumentierte Informationen erstellen, die die Rückverfolgbarkeit von der Bewertung bis zu Entscheidungen und Folgemaßnahmen zeigen
Häufige Implementierungslücken und „Papierbewertungen“ erkennen, die bei Überprüfung (Management oder Audit) scheitern
Lernmaterialien
Präsentationsfolien
Teilnehmerhandbuch
Zertifikat über die Teilnahme
Präsentationsfolien
Teilnehmerhandbuch
Zertifikat über die Teilnahme
Vorlagen & Werkzeuge
ISO/IEC 42001-ausgerichtetes AI Impact & Harm Assessment Record-Vorlage
Betroffene Parteien & Schadenszuordnung-Canvas
Risiko-Kriterienverknüpfungs-Arbeitsblatt (nutzt explizit die bestehenden Risikokriterien der Organisation)
Rest-Risikoakzeptanz & Eskalations-Entscheidungsprotokoll
Checkliste der Bewertungsüberprüfungsauslöser (änderungs- und überwachungsgetrieben)
Prüfnachweis-Checkliste für AI Risiko-/Impact-/Schadensbewertung (Beweisarten, keine Prüfmethoden)
AI Eingabeaufforderungssatz für strukturiertes Schadensszenario-Brainstorming und Zusammenfassung (unterstützt Urteilsbildung)
ISO/IEC 42001-ausgerichtetes AI Impact & Harm Assessment Record-Vorlage
Betroffene Parteien & Schadenszuordnung-Canvas
Risiko-Kriterienverknüpfungs-Arbeitsblatt (nutzt explizit die bestehenden Risikokriterien der Organisation)
Rest-Risikoakzeptanz & Eskalations-Entscheidungsprotokoll
Checkliste der Bewertungsüberprüfungsauslöser (änderungs- und überwachungsgetrieben)
Prüfnachweis-Checkliste für AI Risiko-/Impact-/Schadensbewertung (Beweisarten, keine Prüfmethoden)
AI Eingabeaufforderungssatz für strukturiertes Schadensszenario-Brainstorming und Zusammenfassung (unterstützt Urteilsbildung)
Voraussetzungen
Dieses Modul setzt voraus, dass die Teilnehmer bereits mit einem Managementsystem und einem grundlegenden Risikoprozess arbeiten können und AI-Systeme auf praktischer Ebene verstehen.
Nützliche Hintergründe umfassen:
Vertrautheit mit Rollen, Verantwortlichkeiten und Praktiken zur Dokumentation von Informationen im Managementsystem
Grundlegendes Wissen über die Risikokriterien der Organisation und die Erwartungen an Genehmigung/Eskalation
Grundlegendes Verständnis der Konzepte des Lebenszyklus eines AI-Systems (Daten → Training → Einsatz → Überwachung) und der typischen Wege, wie AI scheitern oder missbraucht werden kann (konzeptionell, kein technisches Tiefenwissen)
Dieses Modul setzt voraus, dass die Teilnehmer bereits mit einem Managementsystem und einem grundlegenden Risikoprozess arbeiten können und AI-Systeme auf praktischer Ebene verstehen.
Nützliche Hintergründe umfassen:
Vertrautheit mit Rollen, Verantwortlichkeiten und Praktiken zur Dokumentation von Informationen im Managementsystem
Grundlegendes Wissen über die Risikokriterien der Organisation und die Erwartungen an Genehmigung/Eskalation
Grundlegendes Verständnis der Konzepte des Lebenszyklus eines AI-Systems (Daten → Training → Einsatz → Überwachung) und der typischen Wege, wie AI scheitern oder missbraucht werden kann (konzeptionell, kein technisches Tiefenwissen)
Dringend empfohlene Vorbereitungsmodule
Grundlagen des Risikomanagements: Konsistente Logik für Risiken und Chancen in Managementsystemen
Erlernen Sie die Grundlagen der Identifikation, Bewertung, Behandlung und Überwachung von Risiken und Chancen in Managementsystemen.
7h
Grundlagen des Risikomanagements: Konsistente Logik für Risiken und Chancen in Managementsystemen
Erlernen Sie die Grundlagen der Identifikation, Bewertung, Behandlung und Überwachung von Risiken und Chancen in Managementsystemen.
7h
Grundlagen des Risikomanagements: Konsistente Logik für Risiken und Chancen in Managementsystemen
Erlernen Sie die Grundlagen der Identifikation, Bewertung, Behandlung und Überwachung von Risiken und Chancen in Managementsystemen.
7h
KI Grundlagen II: KI-Einschränkungen, Unsicherheiten & Fehlermodi
Verstehen Sie die Unsicherheiten, Einschränkungen und häufigen Ausfallmodi von prädiktiven und generativen KI-Systemen.
7h
KI Grundlagen II: KI-Einschränkungen, Unsicherheiten & Fehlermodi
Verstehen Sie die Unsicherheiten, Einschränkungen und häufigen Ausfallmodi von prädiktiven und generativen KI-Systemen.
7h
KI Grundlagen II: KI-Einschränkungen, Unsicherheiten & Fehlermodi
Verstehen Sie die Unsicherheiten, Einschränkungen und häufigen Ausfallmodi von prädiktiven und generativen KI-Systemen.
7h
KI-System-Umfang, Lebenszyklus & Bestandsaufnahme (ISO/IEC 42001)
Definieren Sie den Umfang des KI-Systems, die Grenzen des Lebenszyklus und ein gepflegtes Inventar des KI-Systems, das mit ISO/IEC 42001 abgestimmt ist.
7h
KI-System-Umfang, Lebenszyklus & Bestandsaufnahme (ISO/IEC 42001)
Definieren Sie den Umfang des KI-Systems, die Grenzen des Lebenszyklus und ein gepflegtes Inventar des KI-Systems, das mit ISO/IEC 42001 abgestimmt ist.
7h
KI-System-Umfang, Lebenszyklus & Bestandsaufnahme (ISO/IEC 42001)
Definieren Sie den Umfang des KI-Systems, die Grenzen des Lebenszyklus und ein gepflegtes Inventar des KI-Systems, das mit ISO/IEC 42001 abgestimmt ist.
7h
Hilfreiche Vorbereitungsmodule
Die folgenden Module bereiten auf ein optimales Lernerlebnis vor – sind jedoch nicht unbedingt erforderlich, um den Teilnehmern zu folgen.
Grundlagen der KI I: Konzepte und Systemtypen der KI
Lernen Sie die grundlegenden Konzepte der KI kennen, die Arten von KI-Systemen und die technischen Bausteine, die modernen KI-gestützten Produkten und Dienstleistungen zugrunde liegen.
7h
Grundlagen der KI I: Konzepte und Systemtypen der KI
Lernen Sie die grundlegenden Konzepte der KI kennen, die Arten von KI-Systemen und die technischen Bausteine, die modernen KI-gestützten Produkten und Dienstleistungen zugrunde liegen.
7h
Grundlagen der KI I: Konzepte und Systemtypen der KI
Lernen Sie die grundlegenden Konzepte der KI kennen, die Arten von KI-Systemen und die technischen Bausteine, die modernen KI-gestützten Produkten und Dienstleistungen zugrunde liegen.
7h
Kontinuierliches Lernen
Kontinuierliches Lernen
Kontinuierliches Lernen
Folgemodule
Nach Abschluss dieses Moduls sind die folgenden Module ideal, um Ihre Kompetenz weiter zu vertiefen.
Betriebskontrolle von KI-Systemen
Verstehen Sie, wie Betriebsabläufe für KI-Systeme über Bereitstellung, Änderung und Überwachung hinweg definiert, implementiert und aufrechterhalten werden können.
Dauer
7h
Listenpreis
CHF550
Modul anzeigen
Betriebskontrolle von KI-Systemen
Verstehen Sie, wie Betriebsabläufe für KI-Systeme über Bereitstellung, Änderung und Überwachung hinweg definiert, implementiert und aufrechterhalten werden können.
Dauer
7h
Listenpreis
CHF550
Modul anzeigen
Betriebskontrolle von KI-Systemen
Verstehen Sie, wie Betriebsabläufe für KI-Systeme über Bereitstellung, Änderung und Überwachung hinweg definiert, implementiert und aufrechterhalten werden können.
Dauer
7h
Listenpreis
CHF550
Modul anzeigen
KI-Systemumfang, Lebenszyklus & Inventar
Definieren Sie den Umfang des KI-Systems, die Grenzen des Lebenszyklus und ein gepflegtes Inventar des KI-Systems, das mit ISO/IEC 42001 abgestimmt ist.
Dauer
7h
Listenpreis
CHF550
Modul anzeigen
KI-Systemumfang, Lebenszyklus & Inventar
Definieren Sie den Umfang des KI-Systems, die Grenzen des Lebenszyklus und ein gepflegtes Inventar des KI-Systems, das mit ISO/IEC 42001 abgestimmt ist.
Dauer
7h
Listenpreis
CHF550
Modul anzeigen
KI-Systemumfang, Lebenszyklus & Inventar
Definieren Sie den Umfang des KI-Systems, die Grenzen des Lebenszyklus und ein gepflegtes Inventar des KI-Systems, das mit ISO/IEC 42001 abgestimmt ist.
Dauer
7h
Listenpreis
CHF550
Modul anzeigen

Bereit, Ihre Managementsysteme zu verbessern?
Wir helfen Ihnen, ISO-Anforderungen wirksam in der täglichen Praxis umzusetzen.

Bereit, Ihre Managementsysteme zu verbessern?
Wir helfen Ihnen, ISO-Anforderungen wirksam in der täglichen Praxis umzusetzen.

Bereit, Ihre Managementsysteme zu verbessern?
Wir helfen Ihnen, ISO-Anforderungen wirksam in der täglichen Praxis umzusetzen.
