Die Nuancen der Sprach-KI-Ethik und was Unternehmen tun sollten

Erfahren Sie am 9. November auf dem Virtual Low-Code/No-Code Summit, wie Ihr Unternehmen Apps entwickeln kann, um Aufgaben zu automatisieren und mit Low-Code/No-Code-Tools effizienter zu werden. Registrieren Sie sich hier.

Anfang 2016 kündigte Microsoft Tay an, einen KI-Chatbot, der sich unterhalten und von zufälligen Benutzern im Internet lernen kann. Innerhalb von 24 Stunden begann der Bot, scheinbar ohne Provokation, rassistische und frauenfeindliche Äußerungen zu verbreiten. Das Team trennte Tay vom Netz, da es erkannte, dass die Ethik der Entfesselung eines Chatbots im Internet bestenfalls unerforscht war.

Die eigentlichen Fragen sind, ob KI, die für zufällige menschliche Interaktionen entwickelt wurde, ethisch vertretbar ist und ob die KI so codiert werden kann, dass sie innerhalb der Grenzen bleibt. Noch kritischer wird dies bei Sprach-KI, mit der Unternehmen automatisch und direkt mit Kunden kommunizieren.

Nehmen wir uns einen Moment Zeit, um zu diskutieren, was KI ethisch oder unethisch macht und wie Unternehmen KI auf ethische Weise in ihre kundenorientierten Rollen integrieren können.

Was macht KI unethisch?

Die KI soll neutral sein. Informationen gehen in eine Black Box – ein Muster – und kommen mit einem gewissen Grad an Verarbeitung zurück. In Tays Beispiel erstellten die Forscher ihr Modell, indem sie die KI mit einer riesigen Menge an Gesprächsinformationen fütterten, die von menschlicher Interaktion beeinflusst wurden. Das Ergebnis? Ein unethisches Modell, das eher geschadet als geholfen hat.

Vorfall

Low-Code/No-Code-Vertex

Schließen Sie sich am 9. November virtuell den Top-Führungskräften von heute beim Low-Code/No-Code-Gipfel an. Melden Sie sich noch heute für Ihren kostenlosen Pass an.

hier registrieren

Was passiert, wenn eine KI CCTV-Daten empfängt? Persönliche Informationen? Fotografien und Kunst? Was kommt auf der anderen Seite raus?

Die drei wichtigsten Faktoren, die zu ethischen Dilemmata in der KI beitragen, sind unethische Nutzung, Datenschutzbedenken und Systemverzerrungen.

Mit fortschreitender Technologie entstehen täglich neue KI-Modelle und -Methoden, und ihre Verwendung nimmt zu. Forscher und Unternehmen setzen Modelle und Methoden nahezu wahllos ein; Viele von ihnen sind nicht gut verstanden oder reguliert. Dies führt oft zu unethischen Ergebnissen, selbst wenn die zugrunde liegenden Systeme minimale Voreingenommenheit aufweisen.

Datenschutzprobleme entstehen, weil KI-Modelle mit Daten erstellt und trainiert werden, die direkt von Benutzern stammen. In vielen Fällen werden Kunden unwissentlich zu Testpersonen in einem der größten unregulierten KI-Experimente der Geschichte. Ihre Worte, Bilder, Biometrie und sogar soziale Medien sind Freiwild. Aber sollten sie sein?

Schließlich wissen wir dank Tay und anderen Beispielen, dass KI-Systeme voreingenommen sind. Wie bei jeder Kreation ist das, was Sie hineinstecken, das, was Sie herausbekommen.

Eines der krassesten Beispiele für Voreingenommenheit tauchte in einer Studie aus dem Jahr 2003 auf, in der festgestellt wurde, dass Forscher jahrzehntelang E-Mails aus einer Reihe von Enron-Dokumenten verwendeten, um die Konversations-KI zu trainieren. Die trainierte KI sah die Welt aus der Perspektive eines gefallenen Energiehändlers in Houston. Wie viele von uns würden sagen, dass diese E-Mails unseren Standpunkt vertreten würden?

Ethik in der Sprach-KI

Die Sprach-KI teilt die gleichen grundlegenden ethischen Bedenken wie die KI im Allgemeinen, aber da die Stimme die menschliche Sprache und Erfahrung genau nachahmt, besteht ein höheres Risiko für Manipulation und falsche Darstellung. Außerdem neigen wir dazu, Dingen mit einer Stimme zu vertrauen, einschließlich benutzerfreundlicher Schnittstellen wie Alexa und Siri.

Voice AI interagiert auch sehr wahrscheinlich in Echtzeit mit einem echten Kunden. Mit anderen Worten, Sprach-KIs sind die Repräsentanten Ihres Unternehmens. Und genau wie Ihre menschlichen Vertreter möchten Sie sicherstellen, dass Ihre KI geschult ist und in Übereinstimmung mit den Unternehmenswerten und einem professionellen Verhaltenskodex handelt.

Menschliche Agenten (und KI-Systeme) sollten Anrufer aus Gründen, die nichts mit ihrer Dienstmitgliedschaft zu tun haben, nicht unterschiedlich behandeln. Je nach Datensatz bietet das System jedoch möglicherweise kein konsistentes Erlebnis. Wenn beispielsweise mehr Männer ein Zentrum anrufen, könnte dies zu einer Geschlechtsklassifikation führen ...

Die Nuancen der Sprach-KI-Ethik und was Unternehmen tun sollten

Erfahren Sie am 9. November auf dem Virtual Low-Code/No-Code Summit, wie Ihr Unternehmen Apps entwickeln kann, um Aufgaben zu automatisieren und mit Low-Code/No-Code-Tools effizienter zu werden. Registrieren Sie sich hier.

Anfang 2016 kündigte Microsoft Tay an, einen KI-Chatbot, der sich unterhalten und von zufälligen Benutzern im Internet lernen kann. Innerhalb von 24 Stunden begann der Bot, scheinbar ohne Provokation, rassistische und frauenfeindliche Äußerungen zu verbreiten. Das Team trennte Tay vom Netz, da es erkannte, dass die Ethik der Entfesselung eines Chatbots im Internet bestenfalls unerforscht war.

Die eigentlichen Fragen sind, ob KI, die für zufällige menschliche Interaktionen entwickelt wurde, ethisch vertretbar ist und ob die KI so codiert werden kann, dass sie innerhalb der Grenzen bleibt. Noch kritischer wird dies bei Sprach-KI, mit der Unternehmen automatisch und direkt mit Kunden kommunizieren.

Nehmen wir uns einen Moment Zeit, um zu diskutieren, was KI ethisch oder unethisch macht und wie Unternehmen KI auf ethische Weise in ihre kundenorientierten Rollen integrieren können.

Was macht KI unethisch?

Die KI soll neutral sein. Informationen gehen in eine Black Box – ein Muster – und kommen mit einem gewissen Grad an Verarbeitung zurück. In Tays Beispiel erstellten die Forscher ihr Modell, indem sie die KI mit einer riesigen Menge an Gesprächsinformationen fütterten, die von menschlicher Interaktion beeinflusst wurden. Das Ergebnis? Ein unethisches Modell, das eher geschadet als geholfen hat.

Vorfall

Low-Code/No-Code-Vertex

Schließen Sie sich am 9. November virtuell den Top-Führungskräften von heute beim Low-Code/No-Code-Gipfel an. Melden Sie sich noch heute für Ihren kostenlosen Pass an.

hier registrieren

Was passiert, wenn eine KI CCTV-Daten empfängt? Persönliche Informationen? Fotografien und Kunst? Was kommt auf der anderen Seite raus?

Die drei wichtigsten Faktoren, die zu ethischen Dilemmata in der KI beitragen, sind unethische Nutzung, Datenschutzbedenken und Systemverzerrungen.

Mit fortschreitender Technologie entstehen täglich neue KI-Modelle und -Methoden, und ihre Verwendung nimmt zu. Forscher und Unternehmen setzen Modelle und Methoden nahezu wahllos ein; Viele von ihnen sind nicht gut verstanden oder reguliert. Dies führt oft zu unethischen Ergebnissen, selbst wenn die zugrunde liegenden Systeme minimale Voreingenommenheit aufweisen.

Datenschutzprobleme entstehen, weil KI-Modelle mit Daten erstellt und trainiert werden, die direkt von Benutzern stammen. In vielen Fällen werden Kunden unwissentlich zu Testpersonen in einem der größten unregulierten KI-Experimente der Geschichte. Ihre Worte, Bilder, Biometrie und sogar soziale Medien sind Freiwild. Aber sollten sie sein?

Schließlich wissen wir dank Tay und anderen Beispielen, dass KI-Systeme voreingenommen sind. Wie bei jeder Kreation ist das, was Sie hineinstecken, das, was Sie herausbekommen.

Eines der krassesten Beispiele für Voreingenommenheit tauchte in einer Studie aus dem Jahr 2003 auf, in der festgestellt wurde, dass Forscher jahrzehntelang E-Mails aus einer Reihe von Enron-Dokumenten verwendeten, um die Konversations-KI zu trainieren. Die trainierte KI sah die Welt aus der Perspektive eines gefallenen Energiehändlers in Houston. Wie viele von uns würden sagen, dass diese E-Mails unseren Standpunkt vertreten würden?

Ethik in der Sprach-KI

Die Sprach-KI teilt die gleichen grundlegenden ethischen Bedenken wie die KI im Allgemeinen, aber da die Stimme die menschliche Sprache und Erfahrung genau nachahmt, besteht ein höheres Risiko für Manipulation und falsche Darstellung. Außerdem neigen wir dazu, Dingen mit einer Stimme zu vertrauen, einschließlich benutzerfreundlicher Schnittstellen wie Alexa und Siri.

Voice AI interagiert auch sehr wahrscheinlich in Echtzeit mit einem echten Kunden. Mit anderen Worten, Sprach-KIs sind die Repräsentanten Ihres Unternehmens. Und genau wie Ihre menschlichen Vertreter möchten Sie sicherstellen, dass Ihre KI geschult ist und in Übereinstimmung mit den Unternehmenswerten und einem professionellen Verhaltenskodex handelt.

Menschliche Agenten (und KI-Systeme) sollten Anrufer aus Gründen, die nichts mit ihrer Dienstmitgliedschaft zu tun haben, nicht unterschiedlich behandeln. Je nach Datensatz bietet das System jedoch möglicherweise kein konsistentes Erlebnis. Wenn beispielsweise mehr Männer ein Zentrum anrufen, könnte dies zu einer Geschlechtsklassifikation führen ...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow