AI Literacy im Unternehmen: Warum Art. 4 AI Act jetzt zählt und wie Zenjob ihn umgesetzt hat

Warum AI Literacy spätestens jetzt auf die Agenda gehört:

Künstliche Intelligenz verändert nicht nur Geschäftsprozesse, sondern auch den rechtlichen Rahmen. Mit dem EU AI Act, der 2024 beschlossen und aktuell stufenweise wirksam wird, schafft die EU erstmals ein umfassendes Regelwerk für die Entwicklung und Nutzung von KI-Systemen. Ein zentraler Bestandteil ist Artikel 4, der Unternehmen dazu verpflichtet, die Kompetenzen ihrer Mitarbeitenden im Umgang mit KI zu stärken: Auch bekannt als AI Literacy.

Das betrifft nicht nur Tech-Unternehmen, sondern Unternehmen aller Branchen.
KI wird branchenübergreifend eingesetzt, von der Industrie, Logistik und Gesundheitswesen bis hin zur Verwaltung. Schon die Nutzung von Tools wie ChatGPT reicht, um unter die Vorgaben des Art. 4 AI Act zu fallen.

In Zukunft haften Unternehmen für Fehlverhalten oder mangelnde Transparenz ihrer Systeme, besonders im Hochrisikobereich. Zur Einhaltung der gesetzlichen Vorgaben müssen Schulungen dokumentiert und Awareness nachgewiesen werden. Gleichzeitig ist AI Literacy auch einfach ein Wettbewerbsfaktor: Nur wer KI souverän und verantwortungsvoll einsetzt, bleibt zukunftsfähig.

Was sagt der AI Act konkret?

Seit dem 2. Februar 2025 ist es offiziell und AI Literacy Pflicht:

Seit Inkrafttreten von Art. 4 des AI Acts müssen Unternehmen sicherstellen, dass alle Mitarbeitenden, die mit KI-Systemen arbeiten – sei es in der Entwicklung, Nutzung oder Bewertung – dafür ausreichend geschult und qualifiziert sind.

Der AI Act soll eine Zukunft ermöglichen, in der sowohl Risiken verstanden und kontrolliert als auch Innovationen gefördert werden.

Betroffen sind alle Unternehmen und Organisationen, die KI und automatisierte Systeme nutzen: Auch in Bereichen wie Kundenkommunikation, interne Datenanalysen oder automatisierte Prozesse.

Ziel ist ein sachkundiger, sicherer Umgang mit KI, auch in nicht-technischen Rollen.

Warum das mehr ist als Datenschutz und mehr verlangt als einmalige Schulungen:

Im Unterschied zur DSGVO, die den Schutz personenbezogener Daten regelt, zielt der AI Act auf Transparenz, Nachvollziehbarkeit und Risikominimierung bei algorithmischen Entscheidungen. Beide Rechtsvorgaben ergänzen sich, setzen aber unterschiedliche Schwerpunkte. Beides braucht Schulungen, aber in verschiedenen Bereichen.

Danach sollten zielgruppenspezifische Lernpfade entwickelt und klare Nutzungsregeln für KI definiert werden. Neben der rechtlichen Dimension soll vor allem auf die ethischen Auswirkungen aufmerksam gemacht werden. Der Fokus einer Schulung liegt dabei auf Transparenz, Risikomanagement und Datenschutz.

Mit einer Schulung ist es aber nicht getan: Es braucht einen kontinuierlichen Prozess, mit regelmäßiger Aktualisierung von Systemen, internen Richtlinien, sowie kontinuierlicher Weiterbildung und klarer Verantwortung im Unternehmen.

Empfehlung:

Wer sich als Organisation sicher aufstellen will, sollte:

  • Eine:n KI-Verantwortliche:n benennen.
  • Interne Richtlinien und Governance-Strukturen aufbauen.
  • Mitarbeitenden durch klare Regeln, Dokumentationsstandards und Schulungsangebote Orientierung und Sicherheit geben, vor allem im Bereich Datenschutz und Transparenz.

Lesen Sie hier, wie Zenjob gemeinsam mit Paxa AI Literacy im Unternehmen umgesetzt hat:

Zenjob SE verbindet deutschlandweit Unternehmen mit Studierenden für flexible Nebenjobs, vermittelt monatlich über 70 000 Einsätze  und ist in mehr als 42 deutschen Städten aktiv. Das Unternehmen wurde 2015 von Fritz Trott, Cihan Aksakal und Frederik Fahning in Berlin gegründet. Sie wirken schnell, digital und per App. Dabei spielen vor allem KI-gestützte Prozesse eine zentrale Rolle und damit der Umgang mit KI. Frühzeitig hat das Team erkannt, dass der kompetente, reflektierte Einsatz von KI nicht nur Effizienz bringt, sondern auch klare Regeln, Orientierung und Wissen erfordert: Insbesondere im Hinblick auf neue regulatorische Anforderungen wie den EU AI Act. Im folgenden Interview gibt Fractional General Counsel Julian Jantze von Paxa Einblick wie er mit Zenjob das Thema AI Literacy im Unternehmen strategisch angegangen ist und umgesetzt hat.

So wurde AI Literacy in der Praxis umgesetzt:

Ab wann hat Zenjob das Thema AI Literacy beschäftigt und was war eure Motivation für eine Fortbildung der Mitarbeitenden?

Julian:

“Zenjob hat sich seit letztem Jahr mit dem Thema AI-Literacy bei den Mitarbeitenden beschäftigt. Es ergeben sich hier spezielle Fragen für Zenjob: Als digitales Zeitarbeitsunternehmen setzt Zenjob bereits viel künstlicher Intelligenz ein. Der Einsatz von KI wird immer relevanter bei der Jobvermittlung und daher hatten wir hier ein besonderes Auge darauf, denn wir bewegen uns hier schnell in der Hochrisiko-KI oder sogar im Bereich der verbotenen KI. Zenjob arbeitet täglich mit tausenden von Tageszeitverträgen. Bei der richtigen Auswahl unserer Zeitarbeitnehmer setzen wir Matching-Algorithmen ein anhand vorgegebenen objektiver Kriterien ein. Zukünftig wollen wir auch hier mehr auf künstliche Intelligenz setzen, jedoch müssen wir aufpassen, dass wir nicht in den Anwendungsbereich von Social Scoring oder Emotionserkennung fallen, was möglicherweise eine unzulässige KI darstellen könnte. Uns ist es wichtig bei allen eine Awareness zu schaffen - auch bei den Produktentwicklern.

Deshalb sollte das KI-Training für unsere Mitarbeitenden an alle gerichtet sein und allen einen Basiswissensstand vermitteln, jedoch individualisiert und zugeschnitten auf das Business Modell von Zenjob. Einzelne Departments, die besonders Stark mit künstlicher Intelligenz in Berührung kommen, wollten wir zudem gezielt schulen, wie zB die Product & Engineering Abteilung und die Marketing Abteilung.

Hier sahen wir einen großen Handlungsbedarf: Wenn etwa beim Coden Programmierungen genutzt werden, die ihren Ursprung in KI haben, stellt sich die Frage nach Eigentümerrechten.”

Exkurs: Als Hintergrundinformation, der AI Act stuft KI- Systeme abhängig von Ihrem Gefährdungspotential in vier Risikogruppen ein:

  • Minimales Risiko:
    KI-Systeme dieser Kategorie stellen kein relevantes Risiko für Sicherheit und Grundrechte dar.  Sie können ohne besondere Anforderungen genutzt werden. Beispiele: E-Mail-Spam Filter, automatische Rechtschreibprüfung.
  • Begrenztes Risiko:
    Bei diesen Systemen liegt ein überschaubares Risiko vor, dass sie Intransparenz erzeugen oder Menschen täuschen. Es bestehen Informationspflichten: Nutzer:innen müssen wissen, dass sie es mit KI zu tun haben.
    Beispiele: Chatbots, virtuelle Assistenten
  • Hochrisiko-KI:
    Hier geht es um Anwendungen, die entscheidenden Einfluss auf Menschenrechte, Sicherheit und Lebensentscheidungen haben können. Sie unterliegen daher strengen Anforderungen. Die Pflichten umfassen Risikomanagementsysteme, Transparenz und menschliche Kontrollinstanzen.
    Beispiele: KI-Systeme zur Bewerberauswahl, Kreditwürdigkeitsprüfungen, medizinische Diagnostik
  • Unzulässige KI:
    Diese Systeme sind grundsätzlich in der EU verboten, weil sie gegen fundamentale Rechte verstoßen oder Menschen manipulieren.
    Beispiele: Social Scoring, Emotionserkennung am Arbeitsplatz.

Wie seid ihr das Thema strukturell angegangen und für welche Umsetzung habt ihr euch entschieden?

Julian:

Zenjob hat sich schon früh nach externen Anbietern umgeschaut, aber die konnten nie wirklich das liefern, was für Zenjob wirklich wichtig war. Es hat sich dann herauskristallisiert, dass es eine interne Lösung braucht, um genau auf die Herausforderungen für das Unternehmen einzugehen.

Hier habe ich eine individuelle Lösung aufgesetzt.

Unser großer Vorteil war, dass Paxa die operativen Prozesse von Zenjob kennt, welche Tools genutzt und wo Hochrisiko-KIs eingesetzt werden. Eine Schulung wurde dann aus der Praxis von Zenjob heraus erstellt. Uns war wichtig, dass Hochrisiko Systeme keine Angst machen, sondern nur richtig benutzt werden müssen. Und dabei hilft Paxa. Es wurde dann eine interne und individuelle Schulungslösung von mir in Zusammenarbeit entwickelt.”

Wie habt ihr die Inhalte vermittelt? Was war das Format, das ihr genutzt habt?

Julian:

“Wir haben mit einem KI Video Programm Videos erstellt und zwar mit mir als Avatar-Redner, in denen wir über Themen wie AI Definition - Legal Foundations - Risk and Compliance informiert haben. Hier wurden auch rechtliche und ethische Anforderungen integriert, alles an Beispielen aus der Praxis bei Zenjob. Wir haben erst einmal die Basis Schulungen gemacht, die speziellere für das Fachpersonal aus IT und Marketing kommt noch. Hier ist auch wieder die Unterstützung von uns als Paxa gefragt.”

Wie wurde das dokumentiert?

Julian:

“Wir haben das Ganze mithilfe von einem HR-Tool dokumentiert, das zeigt, welche Mitarbeitenden alle an der Schulung teilgenommen haben, hier bekommen nach erfolgreichem Abschluss alle ein Zertifikat, so werden alle Dokumentationspflichten eingehalten.”

Was war die Rückmeldung vom Team, was waren Lessons learned?

Julian:

"Wir haben sehr viel positive Rückmeldung erhalten, vor allem wurden die zugeschnittenen und aus der Praxis genommenen Beispiele  sehr positiv aufgenommen. Das war vor allem hilfreich, wenn es ums Risikoassessment ging, hier haben wir mit konkreten Beispielen von Zenjob gearbeitet, was niedrige Risikofälle sind und wo hohes Risiko herrscht. Zusammen mit der individuellen Präsentation ist das sehr gut angekommen.

Wichtig war uns vor allem eine möglichst unbürokratische Umsetzung und keine weitere ausufernde Schulung. Wir haben es geschafft, in einem überschaubaren Rahmen als Videoserie alle wichtigen Inhalte zu übermitteln. Als Teil von Paxa zusammen mit Zenjob haben wir 3 Videos entworfen und bereits die komplette Basis umgesetzt.

Was auch noch für die Zukunft wichtig und gut war, ist die klare Einführung eines KI- Zuständigen: Bei Zenjob bin ich AI Officer und damit Ansprechperson in allen Fragen rund um KI und Compliance. Jetzt werden wir zusammen weiter daran arbeiten, Fachspezifische Schulungen durchzuführen und sind bereit Zenjob auch hier sehr gut aufzustellen”

Wo kann Paxa unterstützen?

Nicht jedes Unternehmen hat die Ressourcen, ein eigenes AI Literacy Programm zu konzipieren und umzusetzen. Hier kommt Paxa ins Spiel.

Paxa bietet Unterstützung in fünf Bereichen:

  1. Strategieberatung zur AI Readiness → Wo steht das Unternehmen heute, wo muss es hin?
  2. Entwicklung individueller Lernpfade→ Zielgruppen- und rollenbasiert (z. B. Tech, Legal, HR)
  3. Durchführung von Trainings & Workshops → Inhouse oder remote, modular oder als Programm
  4. Erstellung von Policy-Frameworks → Leitlinien für KI-Einsatz, Dokumentation & Verantwortlichkeiten
  5. Begleitung bei Risikoanalysen & Audits → Unterstützung bei Nachweisführung im Rahmen des AI Act

AI Literacy ist kein herausstechendes Merkmal mehr, sondern Pflicht.

Unternehmen, die frühzeitig handeln, sichern sich nicht nur rechtlich ab, sondern bauen Vertrauen auf und verbessern ihre operative Exzellenz im Umgang mit KI. Art. 4 des AI Acts ist nicht nur ein Compliance-Thema, sondern eine Chance, KI in der Breite verantwortungsvoll und wirksam zu nutzen.

Jetzt prüfen:

  • Gibt es bereits KI-bezogene Schulungen im Unternehmen?
  • Verstehen auch Nicht-Tech-Kolleg:innen die Funktionsweise und Risiken von KI?
  • Gibt es dokumentierte Richtlinien und Rollen für KI-Projekte?

Bei Interesse kontaktieren Sie uns hier

Your peace of mind is our mission.