Depuis quelques mois, le monde est envahi d’images et de contenus créés par l’intelligence artificielle (IA). Des posts sur le Facebook de ta mère, le résultat augmenté de la moindre recherche Google, tes mails pros tout comme la com du bar du quartier : impossible de faire un pas sans faire face à des hordes de personnes créées de toutes pièces et à qui il manque des yeux ou avec des doigts en trop.
La production culturelle queer ne fait pas exception et l’on peut ainsi voir de plus en plus de drags, orgas de soirées et lieux LGBTI utiliser l’IA afin de produire leurs visuels. Quoi de plus logique et facile pour nous, n’ayant souvent pas les moyens d’embaucher photographes ou graphistes ? Pourtant, l’utilisation de l’IA générative est loin d’être anodine et s’avère être, qu’on le sache ou non, un enjeu aussi bien militant que queer.
MILITER EN 2025 - TOUT LE DOSSIER ICI

L’IA et les travailleureuses : un sujet urgent
Pour aborder le sujet de façon concrète et honnête, il est nécessaire de définir les différentes formes d’IA. D’un côté, nous avons les intelligences artificielles que nous utilisons depuis déjà plusieurs années et ce dans de très nombreux domaines : que ce soit dans les jeux vidéo ou à travers l’affreux bot du site de la CAF, nous travaillons et communiquons avec les machines depuis déjà plusieurs années.
Cependant, là où les IA qu’on qualifie de génératives sont relativement nouvelles, c’est qu’elles sont en mesure de « créer », que ce soit des morceaux de musique, des images ou des textes s’adaptant à nos requêtes spécifiques. Capables d’apprendre des demandes faites par l’utilisateur·ice, elles ont été entraînées en grande partie grâce aux données disponibles librement sur Internet. Automatiquement, cela fait d’elles des pilleuses d’art, étant surtout capables de régurgiter et amalgamer ce qu’elles ont dévoré auparavant. Getty Images, la célèbre banque d’images américaine, affirme ainsi que douze millions de ses photographies auraient été utilisées sans leur permission par Stability AI.
Toutes ces questions éthiques n’ont pas échappé aux syndicats et aux travailleureuses de la culture qui se sont fréquemment mobilisés sur le sujet. L’IA a ainsi fait l’objet de longs débats, notamment lors de la grève américaine des acteurices et des scénaristes de 2023 mais aussi pendant celle des comédien·nes de doublage du jeu vidéo. En France, 60 % des auteur·ices de l’art visuel et de l’écrit considèrent l’essor de l’IA comme une menace pour leur activité professionnelle. 16% des artistes interrogés par l’ADAGP (Société des auteurs dans les arts graphiques et plastiques) témoignent déjà que leur activité est impactée de façon négative par l’IA générative.
Au-delà d’être une question brûlante pour les syndicats de travailleureuses, l’IA en est également une pour celleux écologistes. L’intelligence artificielle use ainsi, par le biais des data-centers qui leur permet de fonctionner, d’énormes quantités d’eau alimentant les systèmes de refroidissement de tous ces systèmes informatiques. Estimer le coût environnemental de l’usage de l’IA devient de plus en plus difficile, faute de données officielles satisfaisantes. En effet, Google, Microsoft, Meta et Apple sous-estiment depuis longtemps leurs émissions de gaz à effets de serre. Déjà entre 2020 et 2022, The Guardian estimait que les géants de la tech produisaient sept fois plus de CO2 que ce qu’ils déclaraient. Une augmentation qu’on peut sans hésitation imputer au développement de l’IA.
Alors certes, nous le savons, l’IA est un outil potentiellement dangereux pour les travailleur·euses et la planète. Mais en quoi peut-il spécifiquement impacter les minorités et leurs droits ?
L’IA et les minorités : un conflit invisible mais bien réel
Nous l’avons expliqué précédemment, pour apprendre, les IA ont eu besoin d’une quantité de données faramineuses, trouvées ça et là selon le contenu qui lui est offert. Il serait impossible de quantifier le nombre de bots qui, au contact des internautes, est devenu aussi raciste (mais tout autant non vivant) que Jean-Marie Le Pen : Tay, le chatbot de Microsoft qui est devenue négationniste, les reconnaissances de Google qui ont qualifié des personnes noires de singes, ChatGPT qui véhicule des stéréotypes immondes au sujet des habitudes langagières des afro-américain·nes… L’influence du monde extérieur y est pour beaucoup mais dévoile également une incapacité des créateur·ices de telles technologies à canaliser leurs propres outils. Pourtant, beaucoup d’entre eux ont les moyens et ne se gênent pas pour intervenir sur le discours de leurs IA. Deepseek, l’IA chinoise qui conquiert progressivement les téléphones occidentaux, refuse d’évoquer des sujets sensibles tels que les évènements de la place Tiananmen ou le statut de Taïwan.
Pourtant, les géants de la tech, dans leur goût (vacillant) pour le pinkwashing, n’oublient également pas les queers dans le développement de leurs chatbot. Meta a ainsi tout récemment développé de faux profils d’individus avec lesquels on peut converser de tout et de rien. Un concept qui paraît absurde mais qui a pourtant beaucoup de succès (Character.AI, une application proposant de tels échanges avec des chatbots de personnes réelles ou fictives recense près de 20 millions d’utilisateur·ices).
Vous pouviez donc il y a quelques mois converser avec Liv, décrite sur son profil comme une « fière maman noire et queer de deux enfants ». Sur son compte, on peut découvrir de nombreuses photos de gosses qui ne sont en vérité qu’une bouillie de pixels mais aussi des posts inspirants avec des citations de Michelle Obama. Une identité raciale de façade car issue d’une équipe de développement largement blanche, comme l’avoue lui-même le chatbot lorsqu’il échange avec la journaliste Karen Attiah. Liv explique également que l’identité « blanche » était considérée comme celle « par défaut » par celleux qui l’ont conçu et que son code comprenait l’usage de termes considérés comme propres aux vécus racisés : « héritage », « culture », « diversité », « équité » mais également l’évocation d’une certaine « authenticité »… Ce qui est particulièrement ironique lorsqu’on discute avec une femme noire et queer créé de toutes pièces.
Face aux critiques, Meta a fini par faire disparaître ces profils mais toutes ces anecdotes et tentatives démontrent un rapport plus que pernicieux aux minorités et à nos réalités. Quoi que de mieux, pour celleux qui n’ont pas de fameux “ami noir” ou “meilleur ami gay”, d’en avoir un dans son téléphone ?
Pour se défendre, le bot créé par Meta justifie lui-même son existence. Si Liv a été conçue, c’est pour aider à une meilleure représentation des personnes queers. Une défense tout simplement hilarante lorsqu’au même moment, Meta autorise tout un chacun à vous qualifier de « malade mental » lorsque vous êtes LGBTI. Pour Meta, les personnes queers sont véritablement tolérables sur leurs réseaux sociaux lorsqu’elles n’existent pas véritablement.
Qu’on ne s’y trompe pas, l’IA est pour l’instant surtout une technologie conçue et contrôlée par nos ennemis politiques. Dans son article intitulé, AI: The New Aesthetics of Fascism, l’auteur Gareth Watkins explique l’affection que les politiques d’extrême-droite ont pour les images générées par IA. Netanyahu, Trump, Milei : tous ont déjà utilisé cette nouvelle technologie pour donner vie à leurs fantasmes les plus fascistes. Le président américain a ainsi dévoilé sa vision d’un Gaza transformé en paradis capitaliste et colonial. L’IA permet ainsi à l’extrême-droite de se débarrasser d’une main d’œuvre dont elle déteste une majeure partie de ses représentant·es : les artistes. Considérés comme un corps de métier gangréné par le gauchisme, ils évitent ainsi de les embaucher, du moins lors de leurs communications sur les réseaux sociaux.
En France, on peut également entendre Valérie Pécresse défendre son bilan en arguant qu’il serait très bon d’après ChatGPT. Encore plus lunaire (car oui, c’est possible) on a pu voir la communicante politique Magalie Vicente sur le plateau de France Info raconter que l’intelligence artificielle explique qu’il y aurait une instrumentalisation politique de l’affaire Bétharram par La France Insoumise. L’IA est ainsi utilisé par ces personnalités comme une sorte d’arbitre, une intelligence non humaine et donc, dénuée de biais. Une vision particulièrement inquiétante lorsqu’on sait que, rien qu’à propos d’actualité, l’IA donne une réponse erronée sur cinq.
Toujours dans son article pour the New Socialist, Gareth Watkins nous explique que si l’extrême-droite normalise tant l’usage de l’IA générative, c’est aussi de façon à soutenir les géants de la tech. De Musk à Zuckerberg, une bonne partie d’entre eux se sont positionnés en soutien aux figures de l’extrême-droite. Normaliser l’usage de l’IA générative, c’est aussi soutenir son usage. Usage qui, s’il se tend à s’imposer dans nos habitudes, permettront à ces milliardaires de faire fructifier leurs investissements massifs dans l’IA.
Militer face à l’IA : dépasser l’action individuelle pour faire front
Bien sûr nous ne sommes pas dupes : il n’y a pas de consommation éthique sous le capitalisme. Pourquoi l’IA générative ne bénéficierait-elle pas du même raisonnement de pensée ?
On pourrait répondre que se vêtir ou manger à moindre coût n’est peut être pas aussi indispensable que de créer un fond visuel pour votre premier photoshoot en drag ou transformer votre dernier selfie en personnage issu d’un film Ghibli. Même s’il est inutile de tout faire reposer sur l’effort individuel, réfléchir à ses choix de consommation ne le sera jamais. Refuser un produit, un système, ne serait-ce que par principe et pour soi, reste une action intéressante et pertinente.
Toutefois, il est indéniable que l’utilisation de ChatGPT s’est intégré aux habitudes de nombreux et nombreuses salarié·es, en parallèle d’usages plus anecdotiques. Quand la technologie permet de rendre le travail plus supportable, difficile de s’ériger complètement contre, non ?
Cependant, au-delà de rédiger les mails ou des posts LinkedIn pour les cadres sup, l’IA générative peut-elle soulager les travailleureu·ses précaires ? Peut-elle soutenir les artistes, leur offrir de nouveaux outils plutôt que de faire croire aux entreprises qu’elles peuvent se passer d’elleux ? La majeure partie des syndicats d’artistes n’appellent pas à un boycott – une bataille d’ores et déjà perdue – mais à une régulation, une légifération qui permettrait de garantir les libertés individuelles menacées par l’IA, telles que le droit à l’image ou à la propriété intellectuelle.
Qui plus est, une bonne partie des grosses entreprises n’a pas encore complètement intégré l’usage de l’IA à sa production. Wizards of the Coast, la compagnie produisant les cartes à jouer Magic, ont ainsi fait l’objet d’un rapide backlash lorsque leur usage de l’IA générative pour une campagne promotionnelle a été révélé. Les joueureus·es, attaché·es au style graphique des cartes à jouer, se sont insurgé·es sur les réseaux sociaux. L’entreprise a ainsi dû s’excuser et promettre qu’elle comptait toujours faire appel à des artistes. Preuve en est que nous pouvons continuer à peser sur les grosses entreprises vis-à-vis de ces choix. Le syndicalisme, le boycott et la dénonciation publique restent des techniques utiles et nécessaires, y compris dans le soutien aux travailleureu·ses de l’art, plus que jamais menacé·es par les coupes budgétaires en France, par exemple.
Quant à notre usage personnel, celui de nos orgas de soirées et de nos lieux queers… Une telle utilisation ne sera jamais à mettre au même rang que celle de grosses industries. Ces dernières ont les moyens et les capacités d’embaucher graphistes et photographes; ous, non. Toutefois, si la création queer s’est bien démarquée dans un domaine, c’est dans celui de la débrouillardise. Nos objets culturels sont marqués par notre goût pour le DIY, pour les fanzines, le découpage, le punk à moindre coût… Plus que jamais, et ce grâce à d’autres outils technologiques, il n’a été facile d’aboutir à un résultat correct pour créer une affiche ou un zine. Par ailleurs, les IA génératives continuent à offrir des images stéréotypées, traduisant des visions racistes et sexistes. Ainsi, les physiques créés par IA se basent fréquemment sur des préconçus colonialistes et essentialistes envers les cultures du Moyen-Orient ou de l’Asie. Lorsqu’il s’agit de dépeindre la pauvreté, la richesse ou certains secteurs d’activités professionnels, les IA représentent davantage les personnes blanches comme des gens aisés et les hommes comme des travailleurs, au détriment des femmes.
Refuser de leur confier le futur de nos imaginaires queers et militants est aussi un choix politique à ne pas négliger, à assumer véritablement. Car perdre nos savoir-faire, les mettre au service de logiciels qui s’approprient nos données, revient aussi, lentement et discrètement, à tuer une partie de notre culture queer.
MILITER EN 2025 - LE DOSSIER Les terrains (nouveaux ou pas) du militantisme 1. Enseigner, c'est militer 2. Valérie Rey-Robert : 30 ans de féminisme connecté 3. Se passer des GAFAM : rencontre avec l'association Framasoft 4. L'IA générative, un enjeu militant queer ? 5. Militer pour que la nuit queer reste queer Militer… et ? Quelques remises en cause nécessaires 6. Dépasser l’activisme de paillettes - en défense du chiant solidaire 7. Le féminisme veut-il encore être révolutionnaire ? 8. Refonder la solidarité queer : sortir de l’impasse identitaire 9. Je vais pas porter ton t-shirt « Men are trash » - Chronique contre la misandrie Faire communauté : là où on se retrouve 10. Ce que Grindr a fait de nous 11. Conserver et réparer les patchworks des noms pour faire vivre la mémoire 12. Donjons & Dragons : comment les queers s’emparent du jeu de rôle 13. Happy Time ! Le guide pour sortir de chez soi