IA : comment la technologie alimente l'incompréhension

En janvier 2021, le laboratoire de recherche en intelligence artificielle OpenAI a publié une version limitée d'un logiciel appelé Dall-E. Le logiciel permettait aux utilisateurs de saisir une description simple d'une image qu'ils avaient en tête, et après une brève pause, le logiciel fournissait une interprétation presque étrangement bonne de leur proposition, digne d'un illustrateur engagé ou d'un concepteur averti d'Adobe - mais beaucoup plus rapide et gratuit. Taper, par exemple, "un cochon avec des ailes volant au-dessus de la lune illustré par Antoine de Saint-Exupéry" a abouti après une minute ou deux de traitement à quelque chose qui rappelle les pinceaux aquarelles tachés mais reconnaissables du créateur du Petit Prince.

 

Captures d'écran AI DALL-E


Environ un an plus tard, alors que le logiciel était diffusé plus largement, Internet s'est déchaîné. Les médias sociaux ont été inondés de toutes sortes de créations bizarres et merveilleuses, un méli-mélo débordant de fantasmes et de styles artistiques. Et quelques mois plus tard, cela s'est reproduit, cette fois avec la voix et un produit appelé ChatGPT, également produit par OpenAI. Demandez à ChatGPT de créer un synopsis de style poète Allen Ginsberg du Livre de Job et cela fournirait une tentative raisonnable en quelques secondes. Demandez-lui de rendre le poème de Ginsberg "Howl" sous la forme d'une présentation de diapositives d'un consultant en affaires, et il le fera. La capacité de ces programmes à évoquer de nouveaux mondes étranges en mots et en images a ravi le public, et le désir

Cette dernière capacité est connue sous le nom d'"ingénierie rapide": la technique consistant à formuler ses instructions dans les termes les plus clairement compris par le système, de sorte qu'il renvoie les résultats qui correspondent le mieux - ou peut-être dépassent - les attentes. Les commentateurs techniques ont rapidement prédit que dans un avenir sans code, l'ingénierie rapide deviendrait une description de poste convoitée et bien rémunérée, où le moyen le plus puissant d'interagir avec des systèmes intelligents serait par l'intermédiaire du langage humain. Nous n'aurions plus besoin de savoir dessiner ou écrire du code informatique : nous chuchoterions simplement nos souhaits dans la machine et elle ferait le reste. Les limites des créations d'IA seraient les limites de notre propre imagination.

Les imitateurs de Dall-E et d'autres développements ont rapidement suivi. Dall-E mini (rebaptisé plus tard Craiyon) a donné à ceux qui n'étaient pas invités aux services privés d'OpenAI une chance de jouer avec un outil similaire, moins puissant, mais toujours très impressionnant. Pendant ce temps, la société commerciale indépendante Midjourney et le programme open source Stable Diffusion ont utilisé une approche différente pour classer et générer des images pour atteindre essentiellement les mêmes objectifs. En quelques mois, le domaine avait rapidement évolué vers la génération de vidéos courtes et de modèles 3D, avec de nouveaux outils émergeant quotidiennement des départements universitaires et des programmeurs amateurs, ainsi que des géants établis des médias sociaux et maintenant de l'IA : Facebook (alias Meta). , Google, Microsoft et autres. Un nouveau champ de recherche, de logiciels et de concurrence s'est ouvert.

Le nom Dall-E relie le robot protagoniste de Wall-E de Disney au surréaliste espagnol Salvador Dalí. D'un côté, vous avez le personnage d'une petite machine audacieuse, autonome et adorable balayant les débris d'une civilisation humaine effondrée, et de l'autre un homme dont la boutade la plus courante est : « Ceux qui ne cherchent rien à imiter ne produisent rien. " et "L'important est de créer la confusion, pas de la supprimer." Les deux sont des homonymes admirables pour le large éventail d'outils connus sous le nom de générateurs d'images AI.

La nouvelle vague d'IA grand public

Au cours de l'année écoulée, cette nouvelle vague d'IA grand public, englobant à la fois la génération d'images et des outils comme ChatGPT, a captivé l'imagination de tous. Cela a également stimulé la fortune des grandes entreprises technologiques qui, malgré de nombreux efforts, n'ont pas réussi à convaincre la plupart d'entre nous que la blockchain ou la réalité virtuelle ("le métaverse") est l'avenir que nous voulons tous. Au moins, celui-ci se sent amusant pendant environ cinq minutes; et "AI" a toujours cette qualité de science-fiction scintillante, rappelant les robots géants et les cerveaux surhumains, qui offre cette petite exposition au vraiment nouveau. Bien sûr, ce qui se passe sous le capot est tout sauf nouveau.

Il n'y a pas eu de percée majeure dans la discipline académique de l'intelligence artificielle depuis plusieurs décennies. La technologie sous-jacente des réseaux de neurones - une méthode d'apprentissage automatique basée sur le fonctionnement du cerveau physique - a été théorisée et même mise en pratique dès les années 1990. Même alors, vous pouviez créer des images avec, mais il s'agissait principalement d'abstractions sans forme, de taches de couleur avec peu de résonance émotionnelle ou esthétique. Les premiers chatbots IA convaincants sont encore plus anciens. En 1964, Joseph Weizenbaum, informaticien au Massachusetts Institute of Technology, a développé un chatbot appelé Eliza. Eliza a été modelée d'après une psychothérapeute "centrée sur la personne": tout ce que vous dites vous serait renvoyé.

Les premières IA ne savaient pas grand-chose sur le monde et les départements universitaires n'avaient pas la puissance de calcul nécessaire pour l'utiliser à grande échelle. La différence aujourd'hui n'est pas dans l'intelligence, mais dans les données et la puissance. Les grandes entreprises technologiques ont passé 20 ans à collecter de grandes quantités de données de la culture et de la vie quotidienne, en construisant d'énormes centres de données gourmands en énergie remplis d'ordinateurs de plus en plus puissants pour les traiter. Ce qui était autrefois de vieux réseaux de neurones grinçants est devenu des superpuissances, et la montée en puissance de l'IA que nous constatons en est le résultat.

La génération d'images IA repose sur la compilation et l'analyse de millions et de millions d'images étiquetées ; C'est-à-dire des images qui sont déjà fournies avec une sorte de description de leur contenu. Ces images et descriptions sont ensuite traitées par des réseaux de neurones, qui apprennent à associer des qualités spécifiques et profondément nuancées de l'image - formes, couleurs, compositions - à des mots et des phrases spécifiques. Ces qualités sont ensuite superposées pour créer de nouveaux arrangements de forme, de couleur et de composition basés sur les milliards d'associations pondérées différemment générées par une simple invite. Mais d'où viennent toutes ces images originales ?

Les ensembles de données publiés par LAION, une organisation allemande à but non lucratif, sont un bon exemple du type de collections d'images et de textes utilisées pour former de grands modèles d'IA (ils ont formé la base de Stable Diffusion et Imagen de Google). Pendant plus d'une décennie, une autre organisation Web à but non lucratif, Common Crawl, a indexé et stocké autant de sites Web publics qu'elle peut y accéder, archivant jusqu'à 3 milliards de pages chaque mois. Les chercheurs du LAION ont pris une partie des données de Common Crawl et ont extrait chaque image avec une balise "alt", une ligne de texte ou quelque chose à utiliser pour décrire les images sur les pages Web.

artiste numérique nommé Lapine
 
En septembre 2022, un artiste numérique basé à San Francisco nommé Lapine a utilisé un outil appelé Have I Been Trained qui permet aux artistes de voir si leur travail est utilisé pour former des modèles d'imagerie IA. Have I Been Trained a été créé par les artistes Mat Dryhurst et Holly Herndon, dont le propre travail les a amenés à explorer la manière dont le travail des artistes est coopté par l'IA. Lorsque Lapine l'a utilisé pour rechercher dans la base de données LAION, elle a trouvé une image de son propre visage. Elle a pu faire remonter cette image à des photos prises par un médecin lors d'un traitement pour une maladie génétique rare. Les photos ont été prises dans le cadre de sa documentation clinique et elle a signé des documents qui limitaient leur utilisation uniquement à leurs dossiers médicaux. Le médecin impliqué est décédé en 2018. D'une manière ou d'une autre, ces images médicales privées se sont retrouvées en ligne, puis dans les archives de Common Crawl et dans l'ensemble de données de LAION, et sont finalement entrés dans les réseaux de neurones en apprenant la signification des images et la création de nouvelles images. Pour autant que l'on sache, la texture rose chinée de notre cochon à la Saint-Exupéry, aussi subtile soit-elle, aurait pu être issue de la chair crue d'un malade du cancer.

Cochon façon Saint-Exupéry

« C'est l'équivalent numérique d'obtenir des biens volés. Quelqu'un a volé la photo dans les dossiers de mon défunt médecin et elle s'est retrouvée sur Internet quelque part, puis elle a été gravée dans ce dossier ", a déclaré Lapine à Ars Technica. " C'est déjà assez grave qu'une photo ait été divulguée, mais maintenant elle fait partie d'un produit . Et cela vaut pour toutes les photos, dossiers médicaux ou non. Et le potentiel d'abus futurs est vraiment élevé." (Selon son compte Twitter, Lapine continue d'utiliser des outils comme Dall-E pour créer son propre art.)

Tout ce type d'IA accessible au public, qu'il fonctionne avec des images ou des mots, et les nombreuses applications de ce type basées sur les données reposent sur cette vaste appropriation de la culture existante, dont nous pouvons à peine comprendre l'étendue. Publics ou privés, légaux ou autres, la plupart des textes et des images rassemblés par ces systèmes relèvent du domaine nébuleux de "l'utilisation équitable" (autorisé aux États-Unis mais discutable, voire carrément illégal dans l'UE). Comme pour la plupart des opérations dans les réseaux de neurones avancés, il est vraiment impossible de comprendre comment ils fonctionnent de l'extérieur, à l'exception de rares rencontres comme celle de Lapine.   Mais soyons sûrs :  les résultats de ce type d'IA sont loin d'être magiques,

IA propre ART

La génération d'images et de textes par l'IA est une pure accumulation primitive :  exproprier le travail du plus grand nombre pour enrichir et faire progresser certaines entreprises technologiques de la Silicon Valley et leurs propriétaires milliardaires. Ces entreprises ont gagné leur argent en se mêlant de tous les aspects de la vie quotidienne, y compris les domaines les plus personnels et les plus créatifs de nos vies : nos passions secrètes, nos conversations privées, nos ressemblances et nos rêves. Ils ont encerclé notre imagination de la même manière que les propriétaires fonciers et les barons voleurs encerclaient autrefois les terres communes. Ils ont promis que ce faisant, ils ouvriraient de nouveaux domaines d'expérience humaine, nous donneraient accès à toutes les connaissances humaines et créeraient de nouveaux types de connexions humaines.

L'étrangeté de l'imagerie AI est à la fois la sortie et l'entrée. Un utilisateur a essayé de taper des expressions absurdes et était confus et un peu mal à l'aise de constater que le Dall-E mini semblait avoir une très bonne idée de ce qu'était un "Crungus": une expression par ailleurs inconnue qui comportait constamment des images d'un ogre nu et grondant -comme la figure produite. Crungus était si clair dans l'imagination du programme qu'il pouvait facilement être manipulé : d'autres utilisateurs n'ont pas tardé à offrir des images d'anciennes tapisseries de Crungus, des mosaïques de Crungus de style romain, des peintures à l'huile de Crungus, des photos de Crungus étreignant diverses célébrités, et, c'est le internet, à , "sexy" Crungus.

Alors, qui ou quoi est Crungus ? Les utilisateurs de Twitter n'ont pas tardé à le surnommer "le premier cryptide de l'IA", une créature comme Bigfoot qui, dans ce cas, existe dans le terrain sous-exploré de l'imagination de l'IA. Et c'est à peu près la réponse la plus claire que nous puissions obtenir à ce stade compte tenu de notre compréhension limitée du fonctionnement du système. Nous ne pouvons pas examiner ses processus de prise de décision car la façon dont ces réseaux de neurones « pensent » est intrinsèquement inhumaine. C'est le produit d'un ordre mathématique incroyablement complexe du monde, par opposition à la façon historique et émotionnelle dont les gens ordonnent leur pensée. Le Crungus est un rêve qui émerge du modèle mondial de l'IA, composé de milliards de références, qui ont échappé à leur origine et se sont fondues dans une figure mythologique détachée de l'expérience humaine. Ce qui est bon, même incroyable - mais cela soulève la question, de qui s'inspire-t-on des rêves ici ? Quelle composition de la culture humaine, quelle perspective sur elle, a créé ce cauchemar ?

Une expérience similaire a été vécue par un autre artiste numérique qui expérimentait des invites négatives, une technique pour créer ce que le système considère comme l'opposé polaire de ce qui est décrit. Lorsque l'artiste a saisi "Brando :: -1", le système a renvoyé ce qui ressemblait un peu au logo d'une société de jeux vidéo appelée DIGITA PNTICS. Que cela puisse être le contraire de Marlon Brando à travers les multiples dimensions de la vision du monde du système semble assez raisonnable. Mais quand ils ont vérifié que c'était dans l'autre sens en tapant « DIGITA PNTICS skyline logo::-1 », quelque chose de bien plus étrange s'est produit : toutes les images montraient une femme à l'air sinistre avec des yeux enfoncés et des joues rouges, que l'artiste a surnommée Loab. une fois découvert, Loab semblait inhabituellement et troublant persistant. Réalimenter l'image dans le programme,

Voici une explication pour Loab et peut-être Crungus : Bien qu'il soit très, très difficile d'imaginer comment fonctionne l'imagination de la machine, il est possible d'imaginer qu'elle ait une forme. Cette forme ne sera jamais lisse ou parfaitement arrondie, mais comportera des vallées et des pics, des montagnes et des vallées, des zones riches en informations et des zones dépourvues de nombreuses fonctionnalités. Ces zones à fort contenu informatif correspondent à des réseaux associatifs dont le système "sait" beaucoup. On peut imaginer que les régions liées aux visages humains, aux voitures et aux chats, par exemple, sont assez denses compte tenu de la répartition des images trouvées en examinant l'ensemble d'Internet.

Un générateur d'images AI s'appuiera le plus sur ces régions lors de la création de ses images. Mais il existe d'autres endroits moins visités qui entrent en jeu lorsque des invites négatives - ou des phrases réellement absurdes - sont utilisées. Pour répondre à de telles requêtes, la machine doit recourir à des connexions plus ésotériques, moins sécurisées, peut-être même inférer le contraire de l'ensemble de ses connaissances. Ici, dans l'arrière-pays, se trouvent Loab et Crungus.

C'est une théorie satisfaisante, mais elle soulève certaines questions inconfortables sur la raison pour laquelle Crungus et Loab ressemblent à ceci; pourquoi ils penchent vers l'horreur et la violence, pourquoi ils font allusion aux cauchemars. Les générateurs d'images d'IA semblent avoir recréé même nos peurs les plus sombres dans leur tentative de comprendre et de reproduire toute la culture visuelle humaine. C'est peut-être juste un signe que ces systèmes sont vraiment très bons pour singer la conscience humaine, jusqu'aux horreurs qui se cachent dans les profondeurs de l'existence : notre peur de la saleté, de la mort et de la corruption. Et si c'est le cas, nous devons reconnaître que ce seront des composants permanents des machines que nous construisons à notre image. Il n'y a pas d'échappatoire à de telles obsessions et à de tels dangers qui ne modèrent ni ne construisent la réalité de l'existence humaine.

Ceci est important car les générateurs d'images IA feront ce que toutes les technologies précédentes ont fait, mais ils iront également plus loin. Ils reproduiront les préjugés et les préjugés de ceux qui les créent, comme les webcams qui ne reconnaissent que les visages blancs, ou les systèmes policiers prédictifs qui assiègent les quartiers populaires. Et ils amélioreront également le jeu : l'échelle des performances de l'IA passe du domaine étroit des énigmes et des défis - jouer aux échecs ou au Go ou suivre les règles de circulation - au domaine beaucoup plus large de l'imagination et de la créativité.

Bien que les affirmations sur la "créativité" de l'IA puissent être exagérées - il n'y a pas de véritable originalité dans la génération d'images, seulement une imitation et un mimétisme très habiles - cela ne signifie pas qu'elle est incapable d'entreprendre de nombreuses tâches "artistiques" courantes, longtemps considérées comme l'apanage des professionnels qualifiés. travailleurs, des illustrateurs et graphistes aux musiciens, vidéastes et même écrivains. C'est un énorme changement. L'IA s'engage désormais dans l'expérience sous-jacente des sentiments, des émotions et des humeurs, ce qui lui permettra de façonner et d'affecter le monde à des niveaux toujours plus profonds et convaincants.

L'IA et la créativité humaine pourraient interagir

Introduit par OpenAI en novembre 2022, ChatGPT a continué de transformer notre compréhension de la façon dont l'IA et la créativité humaine pourraient interagir. Structuré comme un chatbot - un programme qui imite la conversation humaine - ChatGPT peut faire bien plus qu'une conversation. Lorsqu'il y est invité, il est capable d'écrire du code informatique fonctionnel, de résoudre des problèmes mathématiques et d'imiter des tâches d'écriture courantes, des critiques de livres aux articles universitaires, aux discours de mariage et aux contrats légaux.

On a tout de suite compris comment le programme pouvait être une aubaine pour ceux qui avaient du mal à rédiger des mails ou des dissertations, par exemple, mais aussi comment il pouvait être utilisé, comme des générateurs d'images, pour remplacer ceux qui vivent de ces tâches. De nombreuses écoles et universités ont déjà introduit des politiques interdisant l'utilisation de ChatGPT au milieu des craintes que les étudiants l'utilisent pour rédiger leurs essais, tandis que la revue universitaire Nature a dû publier des politiques expliquant pourquoi le programme n'est pas considéré comme un auteur de recherche effectué (il ne peut y avoir consentement et ne peut être tenu pour responsable). Mais les institutions elles-mêmes ne sont pas à l'abri d'une utilisation inappropriée de l'outil : en février, le Peabody College for Education and Human Development, qui fait partie de l'université Vanderbilt dans le Tennessee, a choqué les étudiants lorsqu'il a publié une lettre de condoléances et des conseils à la suite d'une fusillade dans une école du Michigan. Alors que la lettre parlait de la valeur de la communauté, du respect mutuel et de la solidarité, une note à la fin indiquait qu'elle avait été écrite par ChatGPT - qui se sentait à la fois moralement mal et en quelque sorte mal ou effrayant pour beaucoup. Il semble y avoir de nombreux domaines de la vie où l'intervention de la machine nécessite une réflexion plus approfondie. respect mutuel et convivialité, une note à la fin indiquait qu'elle avait été écrite par ChatGPT - qui se sentait à la fois moralement erroné et en quelque sorte erroné ou effrayant pour beaucoup. Il semble y avoir de nombreux domaines de la vie où l'intervention de la machine nécessite une réflexion plus approfondie. respect mutuel et convivialité, une note à la fin indiquait qu'elle avait été écrite par ChatGPT - qui se sentait à la fois moralement erroné et en quelque sorte erroné ou effrayant pour beaucoup.

S'il était inapproprié de remplacer toutes nos communications par ChatGPT, alors une tendance claire est qu'il devient une sorte d'assistant intelligent, nous guidant à travers le fatras des connaissances disponibles vers les informations que nous recherchons. Microsoft a été un pionnier dans cette direction, reconfigurant son moteur de recherche Bing souvent méprisé en chatbot avec ChatGPT, augmentant ainsi massivement sa popularité. Mais malgré la ruée en ligne (et journalistique) pour consulter ChatGPT sur presque toutes les questions imaginables, sa relation avec la connaissance elle-même est un peu fragile.

Une récente interaction en face à face avec ChatGPT s'est déroulée comme suit. Je lui ai demandé de me suggérer des livres à lire basés sur un nouveau domaine d'intérêt : la démocratie multi-espèces, l'idée d'impliquer des créatures non humaines dans la prise de décision politique. C'est à peu près l'application la plus utile de l'outil : "Hey, voici quelque chose auquel je pense, pouvez-vous m'en dire plus ?" et ChatGPT oblige. Il m'a donné une liste de plusieurs livres qui exploraient en profondeur ce nouveau domaine d'intérêt et expliquaient dans un langage humain convaincant pourquoi je devrais les lire. C'était génial! Cependant, un seul des quatre livres répertoriés s'est avéré exister réellement, et certains des concepts que je pense que ChatGPT devrait approfondir,

Eh bien, cela ne s'est pas produit parce que ChatGPT est de droite par nature. C'est parce que c'est intrinsèquement stupide. Il a lu la majeure partie d'Internet et sait à quoi ressemble le discours humain, mais il n'a aucun rapport avec la réalité. Ce sont des phrases de rêve qui semblent justes, et honnêtement, l'écouter parler est à peu près aussi intéressant que d'écouter les rêves de quelqu'un. Il est très bon pour produire ce qui ressemble à du sens, et le meilleur pour produire les clichés et les banalités qui constituent l'essentiel de son alimentation, mais reste incapable de se rapporter de manière significative au monde tel qu'il est réellement. Méfiez-vous de quiconque prétend qu'il s'agit d'un écho ou même d'une approximation de la conscience. (Quand cette pièce était sur le point de sortir,

Croire que ce type d'IA est réellement bien informé ou significatif est activement dangereux. Il y a un risque d'empoisonner le puits de la pensée collective et notre capacité à penser tout court. Si, comme le suggèrent les entreprises technologiques, les résultats des requêtes ChatGPT sont fournis comme réponses à ceux qui recherchent des connaissances en ligne, et si, comme le suggèrent certains commentateurs, ChatGPT est utilisé en classe comme outil pédagogique, alors les hallucinations seront en entrer dans le dossier permanent, se plaçant ainsi entre nous et des sources d'information plus légitimes et vérifiables, jusqu'à ce que la ligne entre les deux devienne si floue qu'elle en devient invisible. De plus, notre capacité en tant qu'individus à explorer et à évaluer de manière critique les connaissances pour notre propre compte n'a jamais été aussi nécessaire, notamment en raison des dommages que les entreprises technologiques ont déjà causés à la manière dont les informations sont diffusées. Faire entièrement confiance aux rêves de machines mal programmées reviendrait à renoncer complètement à une telle pensée critique.


 Les technologies de l'IA sont également mauvaises pour la planète. La formation d'un seul modèle d'IA - selon une étude publiée en 2019 - pourrait émettre l'équivalent de plus de 284 tonnes de dioxyde de carbone, soit près de cinq fois la durée de vie totale d'une voiture américaine moyenne, y compris sa fabrication. Ces émissions devraient augmenter de près de 50 % au cours des cinq prochaines années alors que la planète continue de se réchauffer, d'acidifier les océans, d'allumer des incendies de forêt, de déclencher des supertempêtes et de conduire des espèces à l'extinction. Il est difficile d'imaginer quelque chose de plus stupide que l'intelligence artificielle telle qu'elle est pratiquée aujourd'hui.

Alors, prenons du recul. Si ces incarnations actuelles de "l'intelligence" "artificielle" sont si ennuyeuses, quelles sont les alternatives ? Pouvons-nous imaginer des technologies puissantes de tri et de communication d'informations qui ne nous exploitent pas, n'abusent pas, ne nous trompent pas et ne nous remplacent pas ? Oui, nous le pouvons - une fois que nous sortirons des réseaux de pouvoir des entreprises qui définissent la vague actuelle d'IA.

En fait, il existe déjà des exemples d'utilisation de l'IA au profit de communautés spécifiques en contournant le pouvoir bien ancré des entreprises. Les langues indigènes sont menacées dans le monde entier. L'ONU estime qu'une personne disparaît toutes les deux semaines, et avec ces disparitions viennent des générations de connaissances et d'expérience. Ce problème, résultat de siècles de colonialisme et de politiques d'assimilation racistes, est exacerbé par la prédominance croissante des modèles linguistiques d'apprentissage automatique, qui garantissent que les langues populaires augmentent leur pouvoir tandis que les langues moins connues sont dépouillées de leur renommée et de leur expertise.

À Aotearoa, en Nouvelle-Zélande, une petite station de radio à but non lucratif diffusant en langue maorie appelée Te Hiku Media a décidé de remédier à ce décalage entre la manière dont les différentes langues sont représentées dans la technologie. Ses vastes archives de plus de 20 ans d'émissions, représentant un large éventail d'idiomes, d'expressions d'argot et d'idiomes uniques, dont beaucoup ne sont plus parlés par personne, ont été numérisées mais ont dû être transcrites pour être utiles aux linguistes et aux chercheurs en langues. la communauté maorie. En réponse, la station de radio a décidé de former son propre modèle de reconnaissance vocale afin qu'elle puisse "écouter" ses archives et créer des transcriptions.

Au cours des années suivantes, en utilisant des technologies open source ainsi que des systèmes locaux, Te Hiku Media a réalisé le quasi-impossible : un système de reconnaissance vocale en langue maorie de haute précision construit et détenu par sa propre communauté linguistique. C'était plus qu'une dépense de logiciel. La station a contacté tous les groupes communautaires maoris qu'elle a pu trouver et leur a demandé de s'enregistrer en train de prononcer des déclarations pré-écrites afin de fournir un corpus de discours annotés, une exigence pour former leur modèle.

Il y avait un prix en espèces pour celui qui soumettait le plus de phrases - un militant, Te Mihinga Komene, a enregistré 4 000 phrases à lui seul - mais les organisateurs ont constaté que la plus grande motivation des contributeurs était une vision commune de faire revivre la langue et eux en même temps appartenant à la communauté. En quelques semaines, il a créé un modèle qui reconnaissait la parole enregistrée avec une précision de 86 % - plus que suffisant pour commencer à transcrire l'intégralité de ses archives.

La réalisation de Te Hiku Media a ouvert la voie à d'autres groupes autochtones, qui entreprennent maintenant des projets similaires par les peuples mohawks du sud-est du Canada et les Hawaïens autochtones. Elle a également établi le principe de la souveraineté des données en ce qui concerne les langues autochtones et donc aussi d'autres formes de connaissances autochtones. Alors que les entreprises internationales à but lucratif commençaient à se tourner vers les locuteurs maoris pour les aider à construire leurs propres modèles, Te Hiku Media a fait campagne contre ces efforts, arguant : « Ils ont supprimé nos langues et les ont physiquement expulsés de nos grands-parents, et maintenant ils veulent vendre notre nous rend la langue en tant que service.


"Les données sont la dernière frontière de la colonisation", a écrit Keoni Mahelona, un Hawaïen d'origine et l'un des co-fondateurs de Te Hiku Media. Tout le travail de Te Hiku est publié sous ce qu'on appelle la licence Kaitiakitanga, une garantie légale de tutelle et de garde qui garantit que toutes les données qui sont entrées dans le modèle de langage et d'autres projets restent la propriété de la communauté qui les a créés - dans ce cas. , les locuteurs maoris qui ont offert leur aide - et ils peuvent ou non les autoriser comme bon leur semble selon leur tikanga (coutumes et protocoles maoris). De cette manière, la langue maorie est relancée tout en défiant et en transformant les systèmes du colonialisme numérique,

Je pense que la leçon de la vague actuelle d'"intelligence" "artificielle" est que l'intelligence est une mauvaise chose lorsqu'elle est imaginée par les entreprises. Si votre vision du monde est celle dans laquelle la maximisation du profit est le roi des vertus et que tout doit être tenu par le standard de la valeur actionnariale, alors bien sûr vos expressions artistiques, imaginatives, esthétiques et émotionnelles seront misérablement appauvries. Nous méritons mieux dans les outils que nous utilisons, les médias que nous consommons et les communautés dans lesquelles nous vivons, et nous n'obtiendrons ce que nous méritons que lorsque nous pourrons donner le meilleur de nous-mêmes pour y participer. Et ne les laissez pas non plus vous intimider - ils ne sont vraiment pas si compliqués.   Ursula K. Le Guin   a écrit : « La technologie est ce que nous pouvons apprendre ».

 

 

#buttons=(Accept !) #days=(20)

Notre site Web utilise des cookies pour améliorer votre expérience. En savoir plus
Accept !