premium AI Act

Sichere KI-Nutzung beginnt mit kritischem Denken

Die künstliche Intelligenz (KI) erobert zunehmend unseren Alltag. «ChatGPT» schreibt E-Mails, Chatbots übernehmen telefonische Kundenanfragen und KI-Systeme ­analysieren Bewerbende auf ihre Eignung. Für manche bringt das eine willkommene Arbeitserleichterung, anderen läuft es kalt den Rücken hinunter. Droht uns ein ­Überwachungsstaat wie in China? Oder setzt unsere Politik klare Grenzen?

Die EU hat mit dem «AI Act» bereits reagiert und strenge Regeln bei der Nutzung von KI aufgestellt. Was bedeutet das für die Schweiz? Spoiler: eine ganze Menge! Unternehmen, deren Angebote auf die Schweiz begrenzt sind, betrifft es zwar noch nicht in vollem Umfang. Da die Schweiz aber aktiv an der Entstehung des «AI Act» beteiligt war, ist es sehr wahrscheinlich, dass sie das Abkommen ratifizieren wird. Das bedeutet, es wird ins Schweizer Recht integriert.

Was reguliert die Europäische Union im «AI Act»?

Der «AI Act» ist seit August 2024 in Kraft und regelt den Einsatz von KI in Europa. Ziel ist es, Systeme sicher und verantwortungsvoll zu nutzen. Dabei wird KI in 4 Risikostufen unterteilt: 

1. Stufe: Minimales Risiko

Diese Stufe erfordert keine besondere Regulierung, da sie lediglich unterstützende Funktionen übernimmt. In diese Kategorie fallen zum Beispiel Spamfilter, Rechtschreibkorrekturen oder auch Übersetzungsprogramme. Diese Tools haben nur minimale Auswirkungen auf unsere Entscheidungen oder Arbeitsprozesse.

2. Stufe: Begrenztes Risiko

Diese Kategorie umfasst Anwendungen wie KI-Bots oder auch ein komplett automatisierter Kundenservice. Diese Systeme können genutzt werden, solange transparent gemacht wird, dass sie auf KI basieren.

Chatbots wie «ChatGPT» helfen, Texte und Zusammenfassungen zu schreiben, PowerPoint-Präsentationen oder Exceltabellen zu erstellen oder mit uns zu plaudern. Andere KIs erstellen Bilder oder Videos. Die Effizienz wird gesteigert und Arbeiten, die oft Stunden in Anspruch nehmen, können nun in kurzer Zeit erledigt werden. Ungeliebte Arbeiten werden reduziert und die menschliche Kreativität bekommt ein Update. Solche KI-Systeme lernen aus den Prompts, also den eingegebenen Informationen, und verbessern sich kontinuierlich.

Schon heute werden Menschen in Callcentern durch KI-Stimmen ersetzt. Sie sind kaum noch von Menschen zu unterscheiden. Die Stimmen klingen freundlich, mitfühlend, sie gehen auf das Gesagte ein, ärgern sich nie, sprechen akzentfrei 50 verschiedene Sprachen und finden fast perfekte Lösungen. KI-Avatare können in ­Videocalls eingesetzt werden. Dabei können sie kaum von echten ­Menschen unterschieden werden. In allen Fällen, in denen KI verwendet wird, ist es zwingend, diese als solche klar zu deklarieren. 

3. Stufe: Hohes Risiko

Diese Stufe ist streng reguliert, da sie sensible Bereiche wie Personalauswahl, Kreditscore, Gesundheitsthemen oder Charakteranalysen betrifft. Unternehmen müssen zwingend sicherstellen, dass die KI fair, transparent und diskriminierungsfrei arbeitet, was strikte Überwachung und Kontrolle erfordert. Dazu dürfen persönliche Daten nur mit ausdrücklicher Zustimmung verarbeitet werden. 

Dabei gibt es folgende Herausforderung: Die KI trifft Entscheidungen oft auf Basis von Datenmustern (Korrelationen), ohne die tatsächlichen Ursachen (Kausalitäten) zu verstehen. Die Entscheidungen sind schwer nachzuvollziehen, was eine verlässliche Kontrolle erschwert. Hier ein paar Beispiele:

  • Amazon programmierte eine Software, um gute Lebensläufe zu filtern. Die Software diskriminierte unabsichtlich Frauen. Selbst nach längerem Verbessern konnte die KI nicht vorurteilsfrei verwendet werden. So blieb Amazon nichts anderes übrig, als die Software zu deaktivieren.
  • Das Arbeitsamt in Österreich nutze eine Software, um zu erkennen, wer welche Chancen auf dem Arbeitsmarkt hat und für wen es sich lohnt, eine Weiterbildung zu finanzieren. Die KI entschied, dass Menschen aus bestimmten Wohngebieten oder mit bestimmter Nationalität geringere Chancen auf finanzielle Förderung haben.
  • In Gegenden mit vielen Ausländerinnen und Ausländern oder Sozialhilfeempfangenden kann auch in der Schweiz der Kreditscore eines Einzelnen negativ beeinflusst werden, obwohl das keinen direkten Zusammenhang mit der eigenen finanziellen Lage hat.

Durch klare Regulierungen und kontinuierliche Überwachung, wie im «AI Act» vorgesehen, kann KI sicher genutzt werden. Herstellende von Systemen, die Entscheidungen treffen, benötigen Zertifizierungen und Audits. Wenn beispielsweise eine KI bei der Personalauswahl diskriminiert, drohen rechtliche Konsequenzen. Die EU nimmt diese Risiken ernst: Verstösse gegen den «AI Act» können mit Strafen von bis zu 35 Millionen Euro geahndet werden.

4. Stufe: Untragbares Risiko

Diese Anwendungen sind in der EU komplett verboten, da sie eine Bedrohung für die Menschenrechte darstellen. Beispiele sind Social Scoring, wie es in China verwendet wird, wo Menschen nach ihrem Verhalten bewertet und in soziale Kategorien eingeteilt werden, sowie Technologien zur Massenüberwachung. Diese ­Systeme dürfen nicht verwendet werden.

Richtig eingesetzt überwiegen die Vorteile

KI-Tools können eine wahre Schatztruhe voller Möglichkeiten bieten. Sie werden zur wertvollen Assistenz, die komplexe Routineaufgaben fehlerfrei ausführt, beim Verfassen von E-Mails oder Newslettern hilft und das Organisieren von Events oder das Zusammenfassen von grossen Dokumenten übernimmt. KI hilft beim Überwinden von Schreibblockaden und steigert die Kreativität.

Das Lesen der AGBs ist entscheidend, um zu verstehen, wie KI mit persönlichen Daten umgeht. Warum sollte eine Spiel-App auf Kontaktdaten zugreifen oder Einblick in den Mailverlauf benötigen? Wozu will «WhatsApp» die Rechte an unseren Statusbildern? Wieso schreibt Facebook in den AGBs, dass sie diese jederzeit und ohne Information an ihre Kundschaft ändern dürfen? Solche Informationen stehen in den AGBs. Wer sie liest, kann besser entscheiden, welche Daten preisgegeben werden sollen. Eine Faustregel: Je komplizierter die AGBs, desto mehr könnte der Anbietende verbergen wollen. Ein genauer Blick schützt vor ungewollten Datenfreigaben.

KI-Skeptikerinnen und -Skeptiker in IT-Entscheidungen integrieren

Eine verantwortungsvolle KI-Nutzung erfordert den ständigen Dialog zwischen Enthusiastinnen und Skeptikern. Während Innovation vorangetrieben wird, helfen kritische Stimmen, Risiken zu erkennen und Sicherheit zu gewährleisten. Dank dem «AI Act» ist der Weg geebnet, um KI verantwortungsvoll und sicher zu integrieren. So wird eine zukunftsorientierte, verlässliche Arbeitsweise ermöglicht, bei der die Technologie zur Unterstützung des Büroalltags optimal genutzt wird. Effizienz und Sicherheit gehen dabei Hand in Hand.

Kommentieren 0 Kommentare

Corina Zingg ist Geschäftsführerin von CreaLengo, dem Weiterbildungsinstitut für Jobcoaches, Ausbilderin mit eidg. FA und MAS Business Psychology. Sie arbeitet regelmässig mit KI Tools und kennt sich mit den neuesten Trends aus.
crealengo.ch

Weitere Artikel von Corina Zingg
Log in to post a comment.

KOMMENTARE

ADD COMMENT

Das könnte Sie auch interessieren