Trainingsmodul

KI-Systeme: Bewertung von Risiken und Auswirkungen

Verstehen Sie, wie man die Auswirkungen und Schäden durch KI bewertet, Ergebnisse dokumentiert und sie mit Risikoentscheidungen in einem KI-Managementsystem verknüpft.

Trainingsmodul

KI-Systeme: Bewertung von Risiken und Auswirkungen

Verstehen Sie, wie man die Auswirkungen und Schäden durch KI bewertet, Ergebnisse dokumentiert und sie mit Risikoentscheidungen in einem KI-Managementsystem verknüpft.

Trainingsmodul

KI-Systeme: Bewertung von Risiken und Auswirkungen

Verstehen Sie, wie man die Auswirkungen und Schäden durch KI bewertet, Ergebnisse dokumentiert und sie mit Risikoentscheidungen in einem KI-Managementsystem verknüpft.

Abstrakte digitale Schnittstelle mit gestapelten kreisförmigen Indikatoren und Datenringen, die eine strukturierte Analyse von KI-Risiken, Auswirkungen und potenziellen Schäden darstellen, um fundierte Governance-Entscheidungen zu unterstützen.

Von abstrakten „KI-Risiken“ zu fundierten Entscheiden über Auswirkungen und Schäden übergehen

KI-bezogene Auswirkungen werden oft allgemein diskutiert, aber Governance-Entscheidungen erfordern spezifische, nachvollziehbare Argumentationen. Dieses Modul zeigt, wie man Impact- und Schadensbewertungen für Genehmigungen, Aufsicht und Audits nutzbar machen kann, ohne sie in Bürokratie zu verwandeln.

Abstrakte digitale Schnittstelle mit gestapelten kreisförmigen Indikatoren und Datenringen, die eine strukturierte Analyse von KI-Risiken, Auswirkungen und potenziellen Schäden darstellen, um fundierte Governance-Entscheidungen zu unterstützen.

Von abstrakten „KI-Risiken“ zu fundierten Entscheiden über Auswirkungen und Schäden übergehen

KI-bezogene Auswirkungen werden oft allgemein diskutiert, aber Governance-Entscheidungen erfordern spezifische, nachvollziehbare Argumentationen. Dieses Modul zeigt, wie man Impact- und Schadensbewertungen für Genehmigungen, Aufsicht und Audits nutzbar machen kann, ohne sie in Bürokratie zu verwandeln.

Abstrakte digitale Schnittstelle mit gestapelten kreisförmigen Indikatoren und Datenringen, die eine strukturierte Analyse von KI-Risiken, Auswirkungen und potenziellen Schäden darstellen, um fundierte Governance-Entscheidungen zu unterstützen.

Von abstrakten „KI-Risiken“ zu fundierten Entscheiden über Auswirkungen und Schäden übergehen

KI-bezogene Auswirkungen werden oft allgemein diskutiert, aber Governance-Entscheidungen erfordern spezifische, nachvollziehbare Argumentationen. Dieses Modul zeigt, wie man Impact- und Schadensbewertungen für Genehmigungen, Aufsicht und Audits nutzbar machen kann, ohne sie in Bürokratie zu verwandeln.

Übersicht

Übersicht

Übersicht

Viele Organisationen verfügen über Risikoregister, die „KI“ erwähnen, aber nicht konkret erklären können, wer möglicherweise geschädigt werden könnte, wie der Schaden auftreten könnte und was das Restrisiko akzeptabel macht. Das Ergebnis sind fragile Genehmigungsentscheidungen, unklare Verantwortlichkeiten und Sicherungsmaßnahmen, die sich auf die Anwesenheit von Dokumenten statt auf die Qualität der Entscheidungen konzentrieren.

Dieses ISO/IEC 42001-Spezialisierungsmodul konzentriert sich darauf, wie der Standard von Organisationen erwartet, die Auswirkungen und Schäden im Zusammenhang mit KI zu bewerten und die resultierenden Entscheidungen zu dokumentieren. Es wendet generische Risikomanagementmethoden an (ohne diese erneut zu lehren) und bleibt getrennt von KI-Konzepten, Lebenszyklus-Inventararbeiten und der Implementierung operativer Kontrollen.

Viele Organisationen verfügen über Risikoregister, die „KI“ erwähnen, aber nicht konkret erklären können, wer möglicherweise geschädigt werden könnte, wie der Schaden auftreten könnte und was das Restrisiko akzeptabel macht. Das Ergebnis sind fragile Genehmigungsentscheidungen, unklare Verantwortlichkeiten und Sicherungsmaßnahmen, die sich auf die Anwesenheit von Dokumenten statt auf die Qualität der Entscheidungen konzentrieren.

Dieses ISO/IEC 42001-Spezialisierungsmodul konzentriert sich darauf, wie der Standard von Organisationen erwartet, die Auswirkungen und Schäden im Zusammenhang mit KI zu bewerten und die resultierenden Entscheidungen zu dokumentieren. Es wendet generische Risikomanagementmethoden an (ohne diese erneut zu lehren) und bleibt getrennt von KI-Konzepten, Lebenszyklus-Inventararbeiten und der Implementierung operativer Kontrollen.

Applicable environments

Dieses Modul richtet sich an Organisationen, die ein KI-Managementsystem (AIMS) gemäss ISO/IEC 42001 einführen oder betreiben. Es fokussiert darauf, wie die Anforderungen der Norm in realen organisatorischen Kontexten interpretiert und praktisch angewendet werden.

Die Inhalte sind sowohl für Organisationen relevant, die eine Zertifizierung anstreben, als auch für solche, die ISO/IEC 42001 als Referenzrahmen nutzen, um Verantwortlichkeiten, Prozesse und Kontrollen im Bereich des KI-Managements strukturiert auszugestalten.

Zielpublikum

Zielpublikum

Zielpublikum

  • Personen, die an Einführung, Betrieb oder Weiterentwicklung eines KI-Managementsystems (AIMS) nach ISO/IEC 42001 beteiligt sind

  • Führungskräfte und Bereichsleiter, die für die Wirksamkeit und Leistungsfähigkeit eines AIMS verantwortlich sind

  • Personen mit Verantwortung für Prozesse, Richtlinien, Applikationen, Risiken oder Risikokontrollen im Zusammenhang mit KI

  • Auditoren nach ISO/IEC 42001, die ihr Verständnis von Management-seitigen Best Practices vertiefen möchten (nicht von Audittechnik)

  • Personen, die an Einführung, Betrieb oder Weiterentwicklung eines KI-Managementsystems (AIMS) nach ISO/IEC 42001 beteiligt sind

  • Führungskräfte und Bereichsleiter, die für die Wirksamkeit und Leistungsfähigkeit eines AIMS verantwortlich sind

  • Personen mit Verantwortung für Prozesse, Richtlinien, Applikationen, Risiken oder Risikokontrollen im Zusammenhang mit KI

  • Auditoren nach ISO/IEC 42001, die ihr Verständnis von Management-seitigen Best Practices vertiefen möchten (nicht von Audittechnik)

Entscheidungshilfe

Ist dieses Modul für Sie das richtige?

Es passt gut für Sie, wenn Sie...

  • need to assess AI impacts and harms in concrete, decision-ready terms.

  • struggle to explain who could be harmed, how, and why it matters.

  • must justify deployment, approval, or continuation decisions.

  • want impact and harm assessments that hold up in audits and oversight.

  • support or review ISO/IEC 42001 risk and assurance artefacts.

  • need to assess AI impacts and harms in concrete, decision-ready terms.

  • struggle to explain who could be harmed, how, and why it matters.

  • must justify deployment, approval, or continuation decisions.

  • want impact and harm assessments that hold up in audits and oversight.

  • support or review ISO/IEC 42001 risk and assurance artefacts.

Wenn die meisten der oben genannten Punkte zutreffen, ist dieses Modul wahrscheinlich gut geeignet.

Es passt möglicherweise weniger gut für Sie, wenn Sie...

  • are primarily looking for general AI risk concepts or AI fundamentals.

  • expect technical risk modelling or quantitative risk methods.

  • want to design or implement operational controls.

  • already operate a mature, consistent AI impact and harm assessment process.

  • are primarily looking for general AI risk concepts or AI fundamentals.

  • expect technical risk modelling or quantitative risk methods.

  • want to design or implement operational controls.

  • already operate a mature, consistent AI impact and harm assessment process.

Agenda

Agenda

Agenda

  • What ISO/IEC 42001 means by risk, impact, and harm assessment

  • Defining the assessment unit and boundaries

  • Impact pathways and harm categories in AI use

  • Applying the organisation’s risk method to AI harms

  • Treatment and decision rationale in ISO/IEC 42001 terms

  • Documented information and traceability expectations

  • Audit-facing view: what “good” looks like in evidence (without audit craft)

  • Case-based workshop

Details...

  • What ISO/IEC 42001 means by risk, impact, and harm assessment

  • Defining the assessment unit and boundaries

  • Impact pathways and harm categories in AI use

  • Applying the organisation’s risk method to AI harms

  • Treatment and decision rationale in ISO/IEC 42001 terms

  • Documented information and traceability expectations

  • Audit-facing view: what “good” looks like in evidence (without audit craft)

  • Case-based workshop

Details...

  • What ISO/IEC 42001 means by risk, impact, and harm assessment

  • Defining the assessment unit and boundaries

  • Impact pathways and harm categories in AI use

  • Applying the organisation’s risk method to AI harms

  • Treatment and decision rationale in ISO/IEC 42001 terms

  • Documented information and traceability expectations

  • Audit-facing view: what “good” looks like in evidence (without audit craft)

  • Case-based workshop

Details...

Was Sie lernen

Was Sie lernen

Was Sie lernen

Zentrale Lernergebnisse

  • Erwartungen der ISO/IEC 42001 zur Bewertung von KI-Auswirkungen und -Schäden interpretieren und diese in ein KI-Managementsystem einordnen

  • Eine praktische Bewertungseinheit (System/Nutzungsfall/Kontext) definieren und relevante betroffene Parteien identifizieren

  • Glaubwürdige Schadensszenarien und Wirkungspfade in einer Weise beschreiben, die Governance-Entscheidungen unterstützt

  • Die vorhandenen Risikokriterien ihrer Organisation auf KI-Schadensszenarien anwenden und die Begründung dokumentieren, ohne parallele Bewertungsschemata zu erfinden

  • Revisionsbereite dokumentierte Informationen erstellen, die die Rückverfolgbarkeit von der Bewertung bis zu Entscheidungen und Folgemaßnahmen zeigen

  • Häufige Implementierungslücken und „Papierbewertungen“ erkennen, die bei Überprüfung (Management oder Audit) scheitern

  • Erwartungen der ISO/IEC 42001 zur Bewertung von KI-Auswirkungen und -Schäden interpretieren und diese in ein KI-Managementsystem einordnen

  • Eine praktische Bewertungseinheit (System/Nutzungsfall/Kontext) definieren und relevante betroffene Parteien identifizieren

  • Glaubwürdige Schadensszenarien und Wirkungspfade in einer Weise beschreiben, die Governance-Entscheidungen unterstützt

  • Die vorhandenen Risikokriterien ihrer Organisation auf KI-Schadensszenarien anwenden und die Begründung dokumentieren, ohne parallele Bewertungsschemata zu erfinden

  • Revisionsbereite dokumentierte Informationen erstellen, die die Rückverfolgbarkeit von der Bewertung bis zu Entscheidungen und Folgemaßnahmen zeigen

  • Häufige Implementierungslücken und „Papierbewertungen“ erkennen, die bei Überprüfung (Management oder Audit) scheitern

Zusätzliche Fähigkeiten

  • Produce documented information that traces assessments to treatment decisions and residual risk acceptance

  • Recognise implementation gaps and prevent “paper assessments” that lack credibility

  • Integrate impact and harm assessments into existing risk and compliance routines

  • Produce documented information that traces assessments to treatment decisions and residual risk acceptance

  • Recognise implementation gaps and prevent “paper assessments” that lack credibility

  • Integrate impact and harm assessments into existing risk and compliance routines

Enthaltene Unterlagen

Enthaltene Unterlagen

Enthaltene Unterlagen

Lernmaterialien

  • Präsentation

  • Arbeitsbuch

Vorlagen & Tools

Praxisnahe, wiederverwendbare Artefakte, mit denen sich die Inhalte des Moduls direkt auf die eigene Organisation anwenden lassen.

  • ISO/IEC 42001-ausgerichtetes AI Impact & Harm Assessment Record-Vorlage

  • Betroffene Parteien & Schadenszuordnung-Canvas

  • Risiko-Kriterienverknüpfungs-Arbeitsblatt (nutzt explizit die bestehenden Risikokriterien der Organisation)

  • Rest-Risikoakzeptanz & Eskalations-Entscheidungsprotokoll

  • Checkliste der Bewertungsüberprüfungsauslöser (änderungs- und überwachungsgetrieben)

  • Prüfnachweis-Checkliste für AI Risiko-/Impact-/Schadensbewertung (Beweisarten, keine Prüfmethoden)

  • AI Eingabeaufforderungssatz für strukturiertes Schadensszenario-Brainstorming und Zusammenfassung (unterstützt Urteilsbildung)

  • ISO/IEC 42001-ausgerichtetes AI Impact & Harm Assessment Record-Vorlage

  • Betroffene Parteien & Schadenszuordnung-Canvas

  • Risiko-Kriterienverknüpfungs-Arbeitsblatt (nutzt explizit die bestehenden Risikokriterien der Organisation)

  • Rest-Risikoakzeptanz & Eskalations-Entscheidungsprotokoll

  • Checkliste der Bewertungsüberprüfungsauslöser (änderungs- und überwachungsgetrieben)

  • Prüfnachweis-Checkliste für AI Risiko-/Impact-/Schadensbewertung (Beweisarten, keine Prüfmethoden)

  • AI Eingabeaufforderungssatz für strukturiertes Schadensszenario-Brainstorming und Zusammenfassung (unterstützt Urteilsbildung)

Bestätigung

  • Teilnahmebestätigung

Modul-ID

HAM-AI-S-02

Zielgruppe

Auditor

Manager

Sprache

Englisch

Durchführung

Live-virtuell

Dauer

7 Std.

Listenpreis

CHF 550

Exkl. MwSt. Mehrwertsteuer kann je nach Standort und Status des Kunden anfallen.

Durchführung & Lernformat

Durchführung & Lernformat

Durchführung & Lernformat

Virtuelle Live-Lektionen

Dieses Modul wird live durchgeführt, wobei der Schwerpunkt auf Diskussionen, praktischen Anwendungen und der direkten Interaktion mit dem Dozenten liegt.

Die Sitzungen basieren auf realistischen Beispielen, verdeutlichen Konzepte im Kontext und wenden Methoden direkt auf die organisatorischen Gegebenheiten der Teilnehmer an.

Massgeschneiderte Formate

Für Organisationen mit spezifischen Einschränkungen oder Lernzielen kann das Modul in Format und Umfang angepasst werden, einschliesslich interner Durchführung und kontextbezogenem Case-Material.

Nicht sicher, ob dies für Sie passt?

Nicht sicher, ob dies für Sie passt?

Nicht sicher, ob dies für Sie passt?

Für ein optimales Lernerlebnis

Empfehlungen zur Vorbereitung

Dieses Modul ist Teil eines modularen Trainingsansatzes. Inhalte werden bewusst auf einzelne Module verteilt und nicht vollständig wiederholt, um unnötige Redundanzen zu vermeiden. Jedes Modul ist in sich abgeschlossen und kann unabhängig besucht werden. Falls bestimmte Vorkenntnisse oder Erfahrungen hilfreich sind, ist dies unten vermerkt, damit Sie selbst entscheiden können, ob eine Vorbereitung für Sie sinnvoll ist.

Für ein optimales Lernerlebnis

Empfehlungen zur Vorbereitung

Dieses Modul ist Teil eines modularen Trainingsansatzes. Inhalte werden bewusst auf einzelne Module verteilt und nicht vollständig wiederholt, um unnötige Redundanzen zu vermeiden. Jedes Modul ist in sich abgeschlossen und kann unabhängig besucht werden. Falls bestimmte Vorkenntnisse oder Erfahrungen hilfreich sind, ist dies unten vermerkt, damit Sie selbst entscheiden können, ob eine Vorbereitung für Sie sinnvoll ist.

Für ein optimales Lernerlebnis

Empfehlungen zur Vorbereitung

Dieses Modul ist Teil eines modularen Trainingsansatzes. Inhalte werden bewusst auf einzelne Module verteilt und nicht vollständig wiederholt, um unnötige Redundanzen zu vermeiden. Jedes Modul ist in sich abgeschlossen und kann unabhängig besucht werden. Falls bestimmte Vorkenntnisse oder Erfahrungen hilfreich sind, ist dies unten vermerkt, damit Sie selbst entscheiden können, ob eine Vorbereitung für Sie sinnvoll ist.

Vorausgesetzte Kenntnisse

Dieses Modul setzt voraus, dass die Teilnehmer bereits mit einem Managementsystem und einem grundlegenden Risikoprozess arbeiten können und AI-Systeme auf praktischer Ebene verstehen.

Nützliche Hintergründe umfassen:

  • Vertrautheit mit Rollen, Verantwortlichkeiten und Praktiken zur Dokumentation von Informationen im Managementsystem

  • Grundlegendes Wissen über die Risikokriterien der Organisation und die Erwartungen an Genehmigung/Eskalation

  • Grundlegendes Verständnis der Konzepte des Lebenszyklus eines AI-Systems (Daten → Training → Einsatz → Überwachung) und der typischen Wege, wie AI scheitern oder missbraucht werden kann (konzeptionell, kein technisches Tiefenwissen)

Dieses Modul setzt voraus, dass die Teilnehmer bereits mit einem Managementsystem und einem grundlegenden Risikoprozess arbeiten können und AI-Systeme auf praktischer Ebene verstehen.

Nützliche Hintergründe umfassen:

  • Vertrautheit mit Rollen, Verantwortlichkeiten und Praktiken zur Dokumentation von Informationen im Managementsystem

  • Grundlegendes Wissen über die Risikokriterien der Organisation und die Erwartungen an Genehmigung/Eskalation

  • Grundlegendes Verständnis der Konzepte des Lebenszyklus eines AI-Systems (Daten → Training → Einsatz → Überwachung) und der typischen Wege, wie AI scheitern oder missbraucht werden kann (konzeptionell, kein technisches Tiefenwissen)

Vorbereitungsmodule

Foundational modules (depending on background)

Useful if you are new to the underlying concepts or want a shared baseline before attending this module.

Ziele und Leistungs­management

Erlernen Sie die Grundlagen der Identifikation, Bewertung, Behandlung und Überwachung von Risiken und Chancen in Managementsystemen.

7 Std.

Ziele und Leistungs­management

Erlernen Sie die Grundlagen der Identifikation, Bewertung, Behandlung und Überwachung von Risiken und Chancen in Managementsystemen.

7 Std.

Ziele und Leistungs­management

Erlernen Sie die Grundlagen der Identifikation, Bewertung, Behandlung und Überwachung von Risiken und Chancen in Managementsystemen.

7 Std.

Grundlagen der künstlichen Intelligenz II

Unsicherheit, Grenzen und typische Fehlermodi von KI über prädiktive und generative KI-Systeme hinweg verstehen.

7 Std.

Grundlagen der künstlichen Intelligenz II

Unsicherheit, Grenzen und typische Fehlermodi von KI über prädiktive und generative KI-Systeme hinweg verstehen.

7 Std.

Grundlagen der künstlichen Intelligenz II

Unsicherheit, Grenzen und typische Fehlermodi von KI über prädiktive und generative KI-Systeme hinweg verstehen.

7 Std.

KI-Systeme: Umfang, Lebens­zyklus & Inventar

Definieren Sie den Umfang des KI-Systems, die Grenzen des Lebenszyklus und ein gepflegtes Inventar des KI-Systems, das mit ISO/IEC 42001 abgestimmt ist.

7 Std.

KI-Systeme: Umfang, Lebens­zyklus & Inventar

Definieren Sie den Umfang des KI-Systems, die Grenzen des Lebenszyklus und ein gepflegtes Inventar des KI-Systems, das mit ISO/IEC 42001 abgestimmt ist.

7 Std.

KI-Systeme: Umfang, Lebens­zyklus & Inventar

Definieren Sie den Umfang des KI-Systems, die Grenzen des Lebenszyklus und ein gepflegtes Inventar des KI-Systems, das mit ISO/IEC 42001 abgestimmt ist.

7 Std.

Supporting modules (optional)

Helpful if you want to deepen related skills, but not required to participate effectively.

Grundlagen der künstlichen Intelligenz I

Zentrale KI-Konzepte, KI-Systemtypen und die technischen Bausteine verstehen, die modernen KI-gestützten Produkten und Services zugrunde liegen.

7 Std.

Grundlagen der künstlichen Intelligenz I

Zentrale KI-Konzepte, KI-Systemtypen und die technischen Bausteine verstehen, die modernen KI-gestützten Produkten und Services zugrunde liegen.

7 Std.

Grundlagen der künstlichen Intelligenz I

Zentrale KI-Konzepte, KI-Systemtypen und die technischen Bausteine verstehen, die modernen KI-gestützten Produkten und Services zugrunde liegen.

7 Std.

Kontinuierliches Lernen

Weiterführende Module

Kontinuierliches Lernen

Weiterführende Module

Kontinuierliches Lernen

Weiterführende Module

Nach Abschluss dieses Moduls eignen sich die folgenden Module ideal, um Ihr Wissen weiter zu vertiefen.

Office scene with people standing, walking and sitting

Bereit, Ihre Managementsysteme zu verbessern?

Wir helfen Ihnen, ISO-Anforderungen wirksam in der täglichen Praxis umzusetzen.

Office scene with people standing, walking and sitting

Bereit, Ihre Managementsysteme zu verbessern?

Wir helfen Ihnen, ISO-Anforderungen wirksam in der täglichen Praxis umzusetzen.

Office scene with people standing, walking and sitting

Bereit, Ihre Managementsysteme zu verbessern?

Wir helfen Ihnen, ISO-Anforderungen wirksam in der täglichen Praxis umzusetzen.