5 idées pour que les données fonctionnent pour de bon

C'est le moment de l'année pour les réflexions et la manière d'appliquer les apprentissages à l'avenir. Faire cet exercice en mettant l'accent sur l'intelligence artificielle (IA) et les données n'aurait peut-être jamais été aussi important. La sortie de ChatGPT a ouvert une perspective sur l'avenir aussi fascinante - nous pouvons interagir avec une IA apparemment intelligente qui résume des textes complexes, crache des stratégies et écrit des arguments assez solides - qu'elle est effrayante ("la fin de la vérité" ).

Quelle boussole morale et pratique devrait guider l'humanité face à la technologie basée sur les données ? Pour répondre à cette question, il vaut la peine de se tourner vers des innovateurs à but non lucratif, des entrepreneurs qui se concentrent sur la résolution de problèmes sociétaux profondément enracinés. Pourquoi peuvent-ils être utiles ? Tout d'abord, ils sont passés maîtres dans l'art de repérer tôt les conséquences imprévues de la technologie et de trouver comment les atténuer. Deuxièmement, ils innovent avec la technologie et créent de nouveaux marchés, guidés par des considérations éthiques. Voici donc cinq principes, distillés à partir de l'examen du travail de plus de 100 entrepreneurs sociaux soigneusement sélectionnés dans le monde entier, qui mettent en lumière la façon de construire une meilleure voie :

L'intelligence artificielle doit être associée à l'intelligence humaine

L'IA n'est pas assez intelligente pour interpréter notre monde complexe et diversifié. Elle est simplement mauvaise pour comprendre le contexte. C'est pourquoi Hadi Al Khatib, fondateur de Mnemonic, a mis en place un réseau international d'humains pour atténuer les erreurs de la technologie. Ils sauvent des comptes rendus de témoins oculaires de crimes de guerre potentiels – aujourd'hui principalement en Ukraine, auparavant en Syrie, au Soudan, au Yémen – d'être supprimés par YouTube et Facebook. Les algorithmes des plateformes ne comprennent ni la langue locale ni les circonstances politiques et historiques dans lesquelles ces vidéos et photos ont été prises. Le réseau de Mnemonic archive en toute sécurité le contenu numérique, le vérifie - oui, y compris avec l'aide de l'IA - et le met à la disposition des procureurs, des enquêteurs et des historiens. Ils ont fourni des preuves clés qui ont conduit à des poursuites judiciaires réussies. Quelle est la leçon ici? Plus l'IA semble meilleure, plus il devient dangereux de lui faire aveuglément confiance. Ce qui nous amène au point suivant :

L'IA ne peut pas être laissée aux technologues

Les spécialistes des sciences sociales, les philosophes, les acteurs du changement et autres doivent se joindre à la table. Pourquoi? Parce que les données et les modèles cognitifs qui entraînent les algorithmes ont tendance à être biaisés, et les ingénieurs informaticiens ne seront probablement pas conscients de ce biais. De plus en plus de recherches ont révélé que des soins de santé à la banque en passant par la justice pénale, les algorithmes ont systématiquement discriminé aux États-Unis, principalement contre les Noirs. Une entrée de données biaisée signifie des décisions biaisées ou, comme le dit le dicton : des déchets entrants, des déchets sortants. Gemma Galdon, fondatrice d'Eticas, travaille avec des entreprises et des gouvernements locaux sur des audits algorithmiques, pour empêcher cela. Black Lives Matter, fondé par Yeshi Milner, tisse des alliances entre organisateurs, militants et mathématiciens pour collecter des données auprès de communautés sous-représentées dans la plupart des ensembles de données. L'organisation a été une force clé pour faire la lumière sur le fait que le taux de mortalité de Covid-19 était disproportionnellement élevé dans les communautés noires. La leçon : dans un monde où la technologie a un impact démesuré sur l'humanité, les technologues doivent être aidés par des humanistes et des communautés ayant une expérience vécue du problème à résoudre, pour éviter que les machines ne soient entraînées avec les mauvais modèles et les mauvais intrants. Ce qui nous amène au point suivant :

Il s'agit de personnes, pas de produit

La technologie doit être conceptualisée au-delà du produit lui-même. La façon dont les communautés utilisent les données, ou plutôt : comment elles sont habilitées à les utiliser, est d'une importance capitale pour l'impact et les résultats, et détermine si une technologie mène à plus de mal ou de bien dans le monde. Un bon exemple est l'application de réseautage social et d'échange de connaissances SIKU (du nom du mot inuktitut désignant la glace de mer) développée par le

5 idées pour que les données fonctionnent pour de bon

C'est le moment de l'année pour les réflexions et la manière d'appliquer les apprentissages à l'avenir. Faire cet exercice en mettant l'accent sur l'intelligence artificielle (IA) et les données n'aurait peut-être jamais été aussi important. La sortie de ChatGPT a ouvert une perspective sur l'avenir aussi fascinante - nous pouvons interagir avec une IA apparemment intelligente qui résume des textes complexes, crache des stratégies et écrit des arguments assez solides - qu'elle est effrayante ("la fin de la vérité" ).

Quelle boussole morale et pratique devrait guider l'humanité face à la technologie basée sur les données ? Pour répondre à cette question, il vaut la peine de se tourner vers des innovateurs à but non lucratif, des entrepreneurs qui se concentrent sur la résolution de problèmes sociétaux profondément enracinés. Pourquoi peuvent-ils être utiles ? Tout d'abord, ils sont passés maîtres dans l'art de repérer tôt les conséquences imprévues de la technologie et de trouver comment les atténuer. Deuxièmement, ils innovent avec la technologie et créent de nouveaux marchés, guidés par des considérations éthiques. Voici donc cinq principes, distillés à partir de l'examen du travail de plus de 100 entrepreneurs sociaux soigneusement sélectionnés dans le monde entier, qui mettent en lumière la façon de construire une meilleure voie :

L'intelligence artificielle doit être associée à l'intelligence humaine

L'IA n'est pas assez intelligente pour interpréter notre monde complexe et diversifié. Elle est simplement mauvaise pour comprendre le contexte. C'est pourquoi Hadi Al Khatib, fondateur de Mnemonic, a mis en place un réseau international d'humains pour atténuer les erreurs de la technologie. Ils sauvent des comptes rendus de témoins oculaires de crimes de guerre potentiels – aujourd'hui principalement en Ukraine, auparavant en Syrie, au Soudan, au Yémen – d'être supprimés par YouTube et Facebook. Les algorithmes des plateformes ne comprennent ni la langue locale ni les circonstances politiques et historiques dans lesquelles ces vidéos et photos ont été prises. Le réseau de Mnemonic archive en toute sécurité le contenu numérique, le vérifie - oui, y compris avec l'aide de l'IA - et le met à la disposition des procureurs, des enquêteurs et des historiens. Ils ont fourni des preuves clés qui ont conduit à des poursuites judiciaires réussies. Quelle est la leçon ici? Plus l'IA semble meilleure, plus il devient dangereux de lui faire aveuglément confiance. Ce qui nous amène au point suivant :

L'IA ne peut pas être laissée aux technologues

Les spécialistes des sciences sociales, les philosophes, les acteurs du changement et autres doivent se joindre à la table. Pourquoi? Parce que les données et les modèles cognitifs qui entraînent les algorithmes ont tendance à être biaisés, et les ingénieurs informaticiens ne seront probablement pas conscients de ce biais. De plus en plus de recherches ont révélé que des soins de santé à la banque en passant par la justice pénale, les algorithmes ont systématiquement discriminé aux États-Unis, principalement contre les Noirs. Une entrée de données biaisée signifie des décisions biaisées ou, comme le dit le dicton : des déchets entrants, des déchets sortants. Gemma Galdon, fondatrice d'Eticas, travaille avec des entreprises et des gouvernements locaux sur des audits algorithmiques, pour empêcher cela. Black Lives Matter, fondé par Yeshi Milner, tisse des alliances entre organisateurs, militants et mathématiciens pour collecter des données auprès de communautés sous-représentées dans la plupart des ensembles de données. L'organisation a été une force clé pour faire la lumière sur le fait que le taux de mortalité de Covid-19 était disproportionnellement élevé dans les communautés noires. La leçon : dans un monde où la technologie a un impact démesuré sur l'humanité, les technologues doivent être aidés par des humanistes et des communautés ayant une expérience vécue du problème à résoudre, pour éviter que les machines ne soient entraînées avec les mauvais modèles et les mauvais intrants. Ce qui nous amène au point suivant :

Il s'agit de personnes, pas de produit

La technologie doit être conceptualisée au-delà du produit lui-même. La façon dont les communautés utilisent les données, ou plutôt : comment elles sont habilitées à les utiliser, est d'une importance capitale pour l'impact et les résultats, et détermine si une technologie mène à plus de mal ou de bien dans le monde. Un bon exemple est l'application de réseautage social et d'échange de connaissances SIKU (du nom du mot inuktitut désignant la glace de mer) développée par le

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow