gefördert vom Bundesministerium für Arbeit und Soziales
Für weitere Details und Einblicke in die drei Fieldlabs laden wir sie ein, die Website des Gesamtprojekts zu besuchen.
Nachfolgend liegt der Fokus auf den Ergebnissen des Fieldlabs Humand Resources.
Fieldlab Human Resources: CHEMISTREE
Über das Fieldlab Human Resources
Beim Einsatz von Algorithmen und KI für die Aufgabenzuweisung und Stellenbesetzung geht es um Entscheidungen über Lebenschancen von Menschen. Diese Entscheidungen müssen sorgfältig vorbereitet und getroffen werden – Fairness ist hier besonders wichtig. Der AI Act definiert diesen Bereich daher auch als Hochrisikobereich, IT-Lösungen, die KI enthalten, müssen besondere Anforderungen erfüllen.
Im Fieldlab A werden anhand des Systems „Jobmatch“ der Firma CHEMISTREE (Matching von Bewerbenden und Stellen) Lösungsansätze in verschiedenen Bereichen erarbeitet:
Für Endnutzer*innen:
Bewerbende und Stellenanbietende brauchen bereits vor der Nutzung eine angemessene Transparenz darüber, wie das KI-System funktioniert, um für sich entscheiden zu können, ob das System ihren Wünschen und Werten entspricht. Dazu erstellen wir eine allgemeinverständliche Produktinfo.
Während der Nutzung soll in jedem Schritt für die Endnutzer*innen transparent sein, wofür welche Daten erhoben werden und wie welche Entscheidungen (z.B. eine Shortlist für eine Stelle) getroffen werden. Zudem sollen Endnutzer*innen „in Command“ versetzt werden und selbst bestimmen können, welche Daten über sie verwendet werden und ob sie einen Matching-Vorschlag annehmen möchten oder nicht. Sie treffen also die Letztentscheidung.
Die Bedürfnisse der Endanwender*innen in Bezug auf Transparenz und Command erheben wir in Fokusgruppen von Bewerbenden und Stellenanbietenden.
Für die Menschliche Aufsicht:
Personen, die das Jobmatch-System überwachen, sollen bereits vor dem Inverkehrbringen gemäß AI Act umfangreiche Informationen erhalten, um eine Konformität mit dem AI Act bewerten zu können. Dazu gehört beispielsweise eine Betriebsanleitung. Diese wird für das Jobmatch-System erarbeitet und mit verschiedenen Stakeholdern validiert.
Nach dem Inverkehrbringen benötigen Menschen, die die Aufsicht über das System führen, eine geeignete Oberfläche, um Risiken zu monitoren und bei Bedarf über Autonomiestufen oder eine Stopp-Taste einzugreifen. Welche Risiken dabei für den Personalbereich betrachtet werden sollen, was in diesem Kontext als fair definiert wird – auch dies wird im Fieldlab A unter Beteiligung unterschiedlicher Akteure erarbeitet. Damit soll ausgeschlossen werden, dass solch ein System Menschen im Vorschlagsprozess diskriminiert.
Die Ergebnisse unseres Fieldlabs können Sie dem nachfolgenden Link entnehmen. Dort finden Sie auch unser GitHub mit dem Open Source KI-Cockpit.