5 Tipps für Geschäftsinhaber aus der KI-Bill of Rights von Präsident Biden

Präsident Biden unternimmt weitere Schritte, um sicherzustellen, dass die schnellen Fortschritte in der Technologie der künstlichen Intelligenz gut verwaltet werden. Die Biden-Administration hat kürzlich einen Entwurf für eine „AI Bill of Rights“ veröffentlicht, eine Reihe von fünf Empfehlungen, die darauf abzielen, sicherzustellen, dass Systeme künstlicher Intelligenz sicher, fair, optional und vor allem ethisch sind.

Im Gegensatz zur aktuellen Bill of Rights ist dieses Dokument nicht rechtlich bindend. Im Gegenteil, es existiert die Blaupause, um die Best Practices der Hauptakteure der KI zu formalisieren. und Raum für maschinelles Lernen. Laut Venkat Rangapuram, CEO des Datenlösungsanbieters Pactera Edge, umfassen diese Maßnahmen die Sicherstellung, dass die KI nicht aufgrund schlechter Daten voreingenommen ist, die Abgabe von Meinungen darüber, wann Automatisierung verwendet wird, und die Bereitstellung menschlicher Alternativen zu automatisierten Diensten.

Hier sind die fünf "Rechte", die im Entwurf des Weißen Hauses definiert sind, und wie Unternehmen sie bei der Entwicklung und Nutzung automatisierter Systeme nutzen sollten.

1. Stellen Sie sicher, dass automatisierte Systeme sicher und effizient sind.

Benutzersicherheit sollte bei der Entwicklung von K.I. immer von größter Bedeutung sein. Systeme, gemäß Masterplan. Die Verwaltung argumentiert, dass automatisierte Systeme unter Beteiligung der Öffentlichkeit entwickelt werden sollten, um eine Konsultation mit verschiedenen Personengruppen zu ermöglichen, die potenzielle Risiken und Bedenken erkennen können, und dass Systeme vor dem Einsatz strengen Tests und Überwachungen unterzogen werden sollten, um ihre Sicherheit nachzuweisen.

Ein Beispiel für schädliche KI. Das in dem Dokument erwähnte Unternehmen zitiert Amazon, das KI-gestützte Kameras in seinen Lieferwagen installiert hat, um die Sicherheitsgewohnheiten seiner Fahrer zu bewerten. Das System bestrafte Fahrer fälschlicherweise, wenn andere Autos sie abschnitten oder wenn andere Ereignisse auf der Straße auftraten, die außerhalb ihrer Kontrolle lagen. Infolgedessen waren einige Fahrer nicht berechtigt, einen Bonus zu erhalten.

2. Benutzer vor algorithmischer Diskriminierung schützen.

Das zweite Recht befasst sich mit der Tendenz automatisierter Systeme, „ungerechte Ergebnisse zu produzieren“, indem Daten verwendet werden, die bestehende systemische Vorurteile in der amerikanischen Gesellschaft nicht berücksichtigen, wie z. B. Gesichtserkennungssoftware, die farbige Menschen häufiger falsch identifiziert als Weiße oder ein automatisiertes Rekrutierungstool, das Bewerbungen von Frauen ablehnt.

Um dem entgegenzuwirken, schlägt der Plan vor, Algorithmic Bias Safeguards for Workforce zu verwenden, ein Dokument mit Best Practices, das von einem Konsortium aus Branchenführern, darunter IBM, Meta und Deloitte, entwickelt wurde. Das Dokument veranschaulicht Schritte zur Aufklärung der Mitarbeiter über algorithmische Voreingenommenheit sowie Anweisungen zur Umsetzung von Schutzmaßnahmen am Arbeitsplatz.

3. Schützen Sie Benutzer vor missbräuchlichen Datenrichtlinien.

Nach dem dritten Recht soll jeder selbst entscheiden können, wie seine Daten verwendet werden. Der Vorschlag legt nahe, dass Designer und Entwickler von automatisierten Systemen die Erlaubnis der Benutzer einholen und die Entscheidungen der Benutzer bezüglich der Erhebung, Verwendung, des Zugriffs, der Übertragung und Lieferung personenbezogener Daten respektieren. Der Plan fügt hinzu, dass jede Bitte um Zustimmung kurz und verständlich in einfacher Sprache sein sollte.

Rangapuram sagt, dass es ein "schwieriges Gleichgewicht" ist, Ihre automatisierten Systeme so zu gestalten, dass sie ständig lernen, ohne überheblich zu wirken, fügt aber hinzu, dass es gut ist, einzelnen Benutzern zu erlauben, ihr eigenes Maß an Komfort und Vertraulichkeit zu bestimmen erster Schritt.

4. Benutzer mit Hinweisen und Erklärungen versorgen.

Verbraucher sollten immer wissen, wann ein automatisiertes System verwendet wird, und genügend Informationen erhalten, um zu verstehen, wie und warum es zu Ergebnissen beiträgt, die sie betreffen, gemäß dem vierten Recht.

Im Allgemeinen argumentiert Rangapuram, dass eine negative soziale Stimmung gegenüber Unternehmen, die Daten sammeln, die Weiterentwicklung neuer Technologien negativ beeinflussen könnte. Es war noch nie so wichtig, aufzuklären, wie und warum Daten verwendet werden. Durch die Aufklärung der Menschen über ihre Daten können Unternehmen das Vertrauen von...

5 Tipps für Geschäftsinhaber aus der KI-Bill of Rights von Präsident Biden

Präsident Biden unternimmt weitere Schritte, um sicherzustellen, dass die schnellen Fortschritte in der Technologie der künstlichen Intelligenz gut verwaltet werden. Die Biden-Administration hat kürzlich einen Entwurf für eine „AI Bill of Rights“ veröffentlicht, eine Reihe von fünf Empfehlungen, die darauf abzielen, sicherzustellen, dass Systeme künstlicher Intelligenz sicher, fair, optional und vor allem ethisch sind.

Im Gegensatz zur aktuellen Bill of Rights ist dieses Dokument nicht rechtlich bindend. Im Gegenteil, es existiert die Blaupause, um die Best Practices der Hauptakteure der KI zu formalisieren. und Raum für maschinelles Lernen. Laut Venkat Rangapuram, CEO des Datenlösungsanbieters Pactera Edge, umfassen diese Maßnahmen die Sicherstellung, dass die KI nicht aufgrund schlechter Daten voreingenommen ist, die Abgabe von Meinungen darüber, wann Automatisierung verwendet wird, und die Bereitstellung menschlicher Alternativen zu automatisierten Diensten.

Hier sind die fünf "Rechte", die im Entwurf des Weißen Hauses definiert sind, und wie Unternehmen sie bei der Entwicklung und Nutzung automatisierter Systeme nutzen sollten.

1. Stellen Sie sicher, dass automatisierte Systeme sicher und effizient sind.

Benutzersicherheit sollte bei der Entwicklung von K.I. immer von größter Bedeutung sein. Systeme, gemäß Masterplan. Die Verwaltung argumentiert, dass automatisierte Systeme unter Beteiligung der Öffentlichkeit entwickelt werden sollten, um eine Konsultation mit verschiedenen Personengruppen zu ermöglichen, die potenzielle Risiken und Bedenken erkennen können, und dass Systeme vor dem Einsatz strengen Tests und Überwachungen unterzogen werden sollten, um ihre Sicherheit nachzuweisen.

Ein Beispiel für schädliche KI. Das in dem Dokument erwähnte Unternehmen zitiert Amazon, das KI-gestützte Kameras in seinen Lieferwagen installiert hat, um die Sicherheitsgewohnheiten seiner Fahrer zu bewerten. Das System bestrafte Fahrer fälschlicherweise, wenn andere Autos sie abschnitten oder wenn andere Ereignisse auf der Straße auftraten, die außerhalb ihrer Kontrolle lagen. Infolgedessen waren einige Fahrer nicht berechtigt, einen Bonus zu erhalten.

2. Benutzer vor algorithmischer Diskriminierung schützen.

Das zweite Recht befasst sich mit der Tendenz automatisierter Systeme, „ungerechte Ergebnisse zu produzieren“, indem Daten verwendet werden, die bestehende systemische Vorurteile in der amerikanischen Gesellschaft nicht berücksichtigen, wie z. B. Gesichtserkennungssoftware, die farbige Menschen häufiger falsch identifiziert als Weiße oder ein automatisiertes Rekrutierungstool, das Bewerbungen von Frauen ablehnt.

Um dem entgegenzuwirken, schlägt der Plan vor, Algorithmic Bias Safeguards for Workforce zu verwenden, ein Dokument mit Best Practices, das von einem Konsortium aus Branchenführern, darunter IBM, Meta und Deloitte, entwickelt wurde. Das Dokument veranschaulicht Schritte zur Aufklärung der Mitarbeiter über algorithmische Voreingenommenheit sowie Anweisungen zur Umsetzung von Schutzmaßnahmen am Arbeitsplatz.

3. Schützen Sie Benutzer vor missbräuchlichen Datenrichtlinien.

Nach dem dritten Recht soll jeder selbst entscheiden können, wie seine Daten verwendet werden. Der Vorschlag legt nahe, dass Designer und Entwickler von automatisierten Systemen die Erlaubnis der Benutzer einholen und die Entscheidungen der Benutzer bezüglich der Erhebung, Verwendung, des Zugriffs, der Übertragung und Lieferung personenbezogener Daten respektieren. Der Plan fügt hinzu, dass jede Bitte um Zustimmung kurz und verständlich in einfacher Sprache sein sollte.

Rangapuram sagt, dass es ein "schwieriges Gleichgewicht" ist, Ihre automatisierten Systeme so zu gestalten, dass sie ständig lernen, ohne überheblich zu wirken, fügt aber hinzu, dass es gut ist, einzelnen Benutzern zu erlauben, ihr eigenes Maß an Komfort und Vertraulichkeit zu bestimmen erster Schritt.

4. Benutzer mit Hinweisen und Erklärungen versorgen.

Verbraucher sollten immer wissen, wann ein automatisiertes System verwendet wird, und genügend Informationen erhalten, um zu verstehen, wie und warum es zu Ergebnissen beiträgt, die sie betreffen, gemäß dem vierten Recht.

Im Allgemeinen argumentiert Rangapuram, dass eine negative soziale Stimmung gegenüber Unternehmen, die Daten sammeln, die Weiterentwicklung neuer Technologien negativ beeinflussen könnte. Es war noch nie so wichtig, aufzuklären, wie und warum Daten verwendet werden. Durch die Aufklärung der Menschen über ihre Daten können Unternehmen das Vertrauen von...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow