Forscher führen eine kritische Literaturrecherche zu Arbeitsmarktgerechtigkeit und KI durch


Dieser Artikel wurde in Übereinstimmung mit den redaktionellen Prozessen und Richtlinien von Science X überprüft. Die Redaktion hat die folgenden Attribute hervorgehoben und gleichzeitig die Authentizität des Inhalts sichergestellt:

Tatsache bestätigt

vertrauenswürdige Quellen

Korrekturlesen


Bildnachweis: Pixabay/CC0 Public Domain

× schließen


Bildnachweis: Pixabay/CC0 Public Domain

Carlotta Rigotti und Eduard Fosch-Villaronga haben im Rahmen des BIAS-Projekts einen neuen Artikel veröffentlicht, der eine aufschlussreiche und kritische Literaturübersicht zu Gerechtigkeit und KI auf dem Arbeitsmarkt bietet.

Der zunehmende Einsatz von KI-Technologie bei der Personalbeschaffung zur Verbesserung der Arbeitseffizienz wirft Fragen über die Auswirkungen algorithmischer Entscheidungsfindung auf die Beschäftigung auf, insbesondere auf Arbeitssuchende, die einem hohen Risiko gesellschaftlicher Diskriminierung ausgesetzt sind.

Fairness ist in Diskussionen über die Einführung von KI wichtig, da Konzepte wie Transparenz und Rechenschaftspflicht Voreingenommenheit und Diskriminierung hervorrufen können, die sich möglicherweise unverhältnismäßig stark auf bestimmte gefährdete Gruppen auswirken. Allerdings können die Ideale und Ambitionen der Fairness für verschiedene Interessengruppen unterschiedliche Bedeutungen haben.

Um diese Lücke zu schließen, arbeiteten Ligotti und Foch-Villalonga an einer europäischen Initiative, die in der Zeitschrift „Equity, AI, and Recruitment“ veröffentlicht wurde. Überprüfung des Computerrechts und der Sicherheit. Dieser Artikel ist Teil des HE BIAS-Projekts und bietet eine kritische Literaturübersicht über die Schnittstelle von Fairness und KI auf dem Arbeitsmarkt.

Die Konzeptualisierung von Fairness bietet einen klaren Maßstab für die Beurteilung und Milderung von Vorurteilen und stellt sicher, dass KI-Systeme bestehende Ungleichgewichte nicht aufrechterhalten und in diesem Fall allen Kandidaten auf dem Arbeitsmarkt eine faire Chance bieten. Dies ist sehr wichtig, da es fördern kann

Angabe des Umfangs der Literaturrecherche

Zu diesem Zweck führten Carlotta und Eduard eine Scoping-Literaturrecherche zur Fairness bei KI-Anwendungen für Rekrutierungs- und Auswahlzwecke durch, mit besonderem Schwerpunkt auf deren Definition, Klassifizierung und praktischer Umsetzung.

Sie diskutierten zunächst darüber, wie KI-Anwendungen zunehmend im Rekrutierungsprozess eingesetzt werden, insbesondere um die Effizienz von HR-Teams zu steigern. Anschließend gingen wir auf die Grenzen dieser technologischen Innovation ein, die bekanntermaßen ein hohes Risiko für Datenschutzverletzungen und soziale Diskriminierung birgt.

Vor diesem Hintergrund konzentrierten sich Carlotta und Eduardo auf die Definition und Operationalisierung von Fairness bei KI-Anwendungen für Rekrutierungs- und Auswahlzwecke aus einer interdisziplinären Perspektive. Obwohl sich die derzeit angewandten rechtlichen Rahmenbedingungen und einige Studien nur bruchstückhaft mit diesem Thema befassen, beobachten und begrüßen wir das Aufkommen interdisziplinärer Bemühungen, die auf die Bewältigung dieser vielschichtigen Herausforderung abzielen.

Sie schließen ihren Artikel mit einigen einfachen Empfehlungen ab, um künftige Forschung und Maßnahmen zur Fairness bei KI-Anwendungen im Einstellungsprozess besser anzuleiten und zu gestalten.

Für mehr Informationen:
Carlotta Rigotti et al., Fairness, KI, Rekrutierung, Überprüfung des Computerrechts und der Sicherheit (2024). DOI: 10.1016/j.clsr.2024.105966



Source link

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert