Öffentliche Behörden und Privatunternehmen setzen (oft in Kooperation) gerne KI-basierte Systeme ein, um ihnen Aufgaben zu übertragen, die bisher von Menschen erledigt wurden. Eine mathematische Formel kann allerdings keine komplexen gesellschaftlichen Probleme lösen und nicht alles kann durch Algorithmen erfasst werden. Algorithmen können zudem gesellschaftliche Vorurteile enthalten oder auch bestimmte Gruppen benachteiligen und diskriminieren.
In manchen Bereichen wie etwa der Migration werden die Menschenrechte häufiger verletzt, da zwischen denjenigen, die KI einsetzen, und denjenigen, die davon betroffen sind, ein sehr großes Machtgefälle herrscht. Die für KI-Systeme fehlenden Transparenz- und Rechenschaftsverpflichtungen tragen ihr Übriges zu dieser prekären Menschenrechtslage bei. Wenn KI zum Beispiel beim Grenzschutz eingesetzt wird, werden Diskriminierungsmuster reproduziert. Leidtragende sind Menschen, die ohnehin bereits von Diskriminierung betroffen sind. Ihnen fehlen normalerweise die Mittel, um sich dagegen zu wehren. Außerdem haben sie weitere praktische Hürden zu überwinden. Wenn die EU ihre Werte und Prinzipien in die Praxis umsetzen will, muss sie die Grundrechte aller Menschen schützen – also auch die Rechte der Menschen, die (noch) keine EU-Bürger*innen sind.