Les nuances de l'éthique de l'IA vocale et ce que les entreprises doivent faire

Découvrez comment votre entreprise peut créer des applications pour automatiser des tâches et gagner en efficacité grâce à des outils low-code/no-code le 9 novembre lors du sommet virtuel Low-Code/No-Code. Inscrivez-vous ici.

Début 2016, Microsoft a annoncé Tay, un chatbot IA capable de converser et d'apprendre d'utilisateurs aléatoires sur Internet. Dans les 24 heures, le bot a commencé à cracher des déclarations racistes et misogynes, apparemment sans provocation. L'équipe a débranché Tay, réalisant que l'éthique de lâcher un bot conversationnel sur Internet était, au mieux, inexplorée.

Les vraies questions sont de savoir si l'IA conçue pour une interaction humaine aléatoire est éthique et si l'IA peut être codée pour rester dans les limites. Cela devient encore plus critique avec l'IA vocale, que les entreprises utilisent pour communiquer automatiquement et directement avec les clients.

Prenons un moment pour discuter de ce qui rend l'IA éthique ou contraire à l'éthique et comment les entreprises peuvent intégrer l'IA dans leurs rôles en contact avec les clients de manière éthique.

Qu'est-ce qui rend l'IA contraire à l'éthique ?

L'IA est censée être neutre. L'information entre dans une boîte noire — un modèle — et revient avec un certain degré de traitement. Dans l'exemple de Tay, les chercheurs ont créé leur modèle en fournissant à l'IA une quantité massive d'informations conversationnelles influencées par l'interaction humaine. Le résultat? Un modèle contraire à l'éthique qui a nui plutôt qu'aidé.

Événement

Sommet Low-Code/No-Code

Rejoignez les principaux dirigeants d'aujourd'hui au sommet Low-Code/No-Code virtuellement le 9 novembre. Inscrivez-vous pour obtenir votre pass gratuit dès aujourd'hui.

Inscrivez-vous ici

Que se passe-t-il lorsqu'une IA reçoit des données CCTV ? Renseignements personnels? Photographies et art ? Qu'est-ce qui sort de l'autre côté ?

Les trois principaux facteurs contribuant aux dilemmes éthiques de l'IA sont l'utilisation contraire à l'éthique, les problèmes de confidentialité des données et les biais du système.

À mesure que la technologie progresse, de nouveaux modèles et méthodes d'IA apparaissent quotidiennement et leur utilisation augmente. Les chercheurs et les entreprises déploient les modèles et les méthodes presque au hasard ; nombre d'entre eux ne sont pas bien compris ou réglementés. Cela se traduit souvent par des résultats contraires à l'éthique, même lorsque les systèmes sous-jacents ont minimisé les préjugés.

Les problèmes de confidentialité des données surgissent parce que les modèles d'IA sont construits et entraînés sur des données provenant directement des utilisateurs. Dans de nombreux cas, les clients deviennent involontairement des sujets de test dans l'une des plus grandes expériences d'IA non réglementées de l'histoire. Vos mots, images, données biométriques et même les médias sociaux sont un jeu équitable. Mais devraient-ils l'être ?

Enfin, grâce à Tay et à d'autres exemples, nous savons que les systèmes d'IA sont biaisés. Comme toute création, ce que vous y mettez est ce que vous en retirez.

L'un des exemples les plus marquants de biais a fait surface lors d'un essai de 2003 qui a révélé que les chercheurs avaient utilisé des e-mails provenant d'une multitude de documents Enron pour former l'IA conversationnelle pendant des décennies. L'IA formée a vu le monde du point de vue d'un négociant en énergie déchu à Houston. Combien d'entre nous diraient que ces e-mails représenteraient notre point de vue ?

Éthique dans l'IA vocale

Voice AI partage les mêmes préoccupations éthiques fondamentales que l'IA en général, mais comme la voix imite étroitement le discours et l'expérience humains, il existe un risque plus élevé de manipulation et de fausses déclarations. De plus, nous avons tendance à faire confiance aux choses avec une voix, y compris des interfaces conviviales comme Alexa et Siri.

Voice AI est également très susceptible d'interagir avec un vrai client en temps réel. En d'autres termes, les IA vocales sont les représentants de votre entreprise. Et tout comme vos représentants humains, vous voulez vous assurer que votre IA est formée et agit conformément aux valeurs de l'entreprise et à un code de conduite professionnel.

Les agents humains (et les systèmes d'IA) ne doivent pas traiter les appelants différemment pour des raisons sans rapport avec leur adhésion au service. Mais selon l'ensemble de données, le système peut ne pas fournir une expérience cohérente. Par exemple, plus d'hommes appelant un centre pourraient entraîner un classificateur de genre...

Les nuances de l'éthique de l'IA vocale et ce que les entreprises doivent faire

Découvrez comment votre entreprise peut créer des applications pour automatiser des tâches et gagner en efficacité grâce à des outils low-code/no-code le 9 novembre lors du sommet virtuel Low-Code/No-Code. Inscrivez-vous ici.

Début 2016, Microsoft a annoncé Tay, un chatbot IA capable de converser et d'apprendre d'utilisateurs aléatoires sur Internet. Dans les 24 heures, le bot a commencé à cracher des déclarations racistes et misogynes, apparemment sans provocation. L'équipe a débranché Tay, réalisant que l'éthique de lâcher un bot conversationnel sur Internet était, au mieux, inexplorée.

Les vraies questions sont de savoir si l'IA conçue pour une interaction humaine aléatoire est éthique et si l'IA peut être codée pour rester dans les limites. Cela devient encore plus critique avec l'IA vocale, que les entreprises utilisent pour communiquer automatiquement et directement avec les clients.

Prenons un moment pour discuter de ce qui rend l'IA éthique ou contraire à l'éthique et comment les entreprises peuvent intégrer l'IA dans leurs rôles en contact avec les clients de manière éthique.

Qu'est-ce qui rend l'IA contraire à l'éthique ?

L'IA est censée être neutre. L'information entre dans une boîte noire — un modèle — et revient avec un certain degré de traitement. Dans l'exemple de Tay, les chercheurs ont créé leur modèle en fournissant à l'IA une quantité massive d'informations conversationnelles influencées par l'interaction humaine. Le résultat? Un modèle contraire à l'éthique qui a nui plutôt qu'aidé.

Événement

Sommet Low-Code/No-Code

Rejoignez les principaux dirigeants d'aujourd'hui au sommet Low-Code/No-Code virtuellement le 9 novembre. Inscrivez-vous pour obtenir votre pass gratuit dès aujourd'hui.

Inscrivez-vous ici

Que se passe-t-il lorsqu'une IA reçoit des données CCTV ? Renseignements personnels? Photographies et art ? Qu'est-ce qui sort de l'autre côté ?

Les trois principaux facteurs contribuant aux dilemmes éthiques de l'IA sont l'utilisation contraire à l'éthique, les problèmes de confidentialité des données et les biais du système.

À mesure que la technologie progresse, de nouveaux modèles et méthodes d'IA apparaissent quotidiennement et leur utilisation augmente. Les chercheurs et les entreprises déploient les modèles et les méthodes presque au hasard ; nombre d'entre eux ne sont pas bien compris ou réglementés. Cela se traduit souvent par des résultats contraires à l'éthique, même lorsque les systèmes sous-jacents ont minimisé les préjugés.

Les problèmes de confidentialité des données surgissent parce que les modèles d'IA sont construits et entraînés sur des données provenant directement des utilisateurs. Dans de nombreux cas, les clients deviennent involontairement des sujets de test dans l'une des plus grandes expériences d'IA non réglementées de l'histoire. Vos mots, images, données biométriques et même les médias sociaux sont un jeu équitable. Mais devraient-ils l'être ?

Enfin, grâce à Tay et à d'autres exemples, nous savons que les systèmes d'IA sont biaisés. Comme toute création, ce que vous y mettez est ce que vous en retirez.

L'un des exemples les plus marquants de biais a fait surface lors d'un essai de 2003 qui a révélé que les chercheurs avaient utilisé des e-mails provenant d'une multitude de documents Enron pour former l'IA conversationnelle pendant des décennies. L'IA formée a vu le monde du point de vue d'un négociant en énergie déchu à Houston. Combien d'entre nous diraient que ces e-mails représenteraient notre point de vue ?

Éthique dans l'IA vocale

Voice AI partage les mêmes préoccupations éthiques fondamentales que l'IA en général, mais comme la voix imite étroitement le discours et l'expérience humains, il existe un risque plus élevé de manipulation et de fausses déclarations. De plus, nous avons tendance à faire confiance aux choses avec une voix, y compris des interfaces conviviales comme Alexa et Siri.

Voice AI est également très susceptible d'interagir avec un vrai client en temps réel. En d'autres termes, les IA vocales sont les représentants de votre entreprise. Et tout comme vos représentants humains, vous voulez vous assurer que votre IA est formée et agit conformément aux valeurs de l'entreprise et à un code de conduite professionnel.

Les agents humains (et les systèmes d'IA) ne doivent pas traiter les appelants différemment pour des raisons sans rapport avec leur adhésion au service. Mais selon l'ensemble de données, le système peut ne pas fournir une expérience cohérente. Par exemple, plus d'hommes appelant un centre pourraient entraîner un classificateur de genre...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow