Appel au Conseil fédéral

Intelligence artificielle avec responsabilité, sans discrimination!

Aktion, Suisse

857 signataires

Archivé

Les algorithmes et l’Intelligence artificielle (IA) doivent bénéficier à toutes et tous. Pour cela, nous devons nous assurer que les systèmes sont utilisés de manière responsable et qu'ils ne discriminent pas. Nous appelons donc le Conseil fédéral à faire de la protection contre la discrimination par les algorithmes une priorité de la future régulation de l'IA. Signe maintenant l'appel au Conseil fédéral.

Appel au Conseil fédéral

Les algorithmes et l’IA promettent beaucoup, mais de nombreux exemples montrent que leur utilisation peut reproduire, multiplier et consolider des injustices existantes. Au Royaume-Uni, par exemple, un algorithme soupçonnait de manière disproportionnée les personnes handicapées de fraude aux prestations sociales et les soumettait à des contrôles bureaucratiques (1). Aux Pays-Bas, des milliers de familles ont été plongées dans une détresse existentielle lorsqu’un algorithme discriminatoire leur a demandé à tort de rembourser des allocations familiales perçues pendant des années (2).

Ce défi ne peut pas être relevé uniquement au niveau technique. C’est ce que montre l’exemple d’un grand commerçant en ligne. Comme le rapportent les médias, l’entreprise a développé un logiciel pour rendre les processus de recrutement plus efficaces. Il s’est toutefois avéré, alors qu’il était encore en phase de test, que son algorithme de recommandation avait tendance à écarter automatiquement les CV des femmes. Les tentatives pour remédier à ce problème au niveau technique sont restées vaines (3).

Les algorithmes et l’IA peuvent influencer notre vie dans les domaines les plus divers, qu’il s’agisse de mesurer nos performances au travail, de nous montrer du contenu sur les réseaux sociaux, d’estimer notre solvabilité, d’évaluer les élèves, de prédire la délinquance ou d’attribuer des prestations de l’État. En Suisse aussi, c’est de plus en plus le cas (4)… Lorsque des discriminations apparaissent, elles ont des conséquences importantes pour les personnes concernées (5). Le cadre juridique actuel en Suisse n’offre toutefois pas une protection suffisante contre ce phénomène (6).

Mais il y a du mouvement! Le Conseil fédéral examine d’ici fin 2024 les approches possibles pour la régulation de l’IA et prendra des mesures sur cette base. Nous appelons le Conseil fédéral à saisir cette opportunité:

Les réglementations relatives à l’IA devraient viser à garantir une utilisation responsable des algorithmes et de l’IA, dans le respect des droits fondamentaux et au bénéfice de toutes et tous. L’utilisation de l’IA peut être bénéfique pour la science, l’économie et la société. Mais cela ne sera possible que si les défis sont adressés et si les craintes légitimes sont prises au sérieux. Les personnes doivent être protégées efficacement contre la discrimination par les algorithmes et pouvoir s’y opposer, que ceux-ci soient utilisés par des privés ou des autorités publiques. La protection contre la discrimination par les algorithmes doit donc devenir l’une des priorités de la future régulation de l’IA.

1 Article de presse, The Guardian
2 Article de presse, POLITICO
3 Article de presse, Reuters
4 « Atlas de l’automatisation », AlgorithmWatch CH
5 Exemples de cas, AlgorithmWatch CH & humanrights.ch
6 Papier de position, AlgorithmWatch CH

soutiens

AlgorithmWatch CH, Netzcourage, Aide Suisse contre le Sida, alliance F, Amnesty International Suisse, augenauf Berne, Business & Professional Women Club Zürich,
Business & Professional Women Switzerland, CH++, Dezentrum, Espace Suisse des Données de Santé, Fédération des Associations des retraité-e-s et de l’entraide en Suisse (FARES), Fédération romande des consommateurs, Femmes Juristes Suisse, humanrights ch, ICT4peace Foundation, ImpactIA, Inclusion Handicap, InterAction, Intersections, Juristes Démocrates de Suisse (JDS), NCBI Suisse, NOTRE DROIT, Œuvre Suisse d’Entraide Ouvrière (OSEO), Opendata, Operation Libero, Organisation suisse des lesbiennes (LOS), Public Beta, Pour Demain, Pro Juventute, Société numérique, Société pour les minorités en Suisse, Stiftung für Konsumentenschutz, Syndicat suisse des services publics (SSP), Syndicom, Think Tank W.I.R.E., Transgender Network Switzerland (TGNS), Travail.Suisse, Unia, Wikimedia CH

Dons

Soutiens la plateforme démocratique WeCollect par un don.

Contact

AlgorithmWatch CH

Ce projet est désormais terminé et ne peut plus être soutenu.
Tous les projets