Der Aufstieg der Maschinen: Wofür werden Ihre Daten verwendet?

Besuchen Sie uns am 9. November, um auf dem Low-Code/No-Code-Gipfel zu erfahren, wie Sie erfolgreich innovativ sein und Effizienz steigern können, indem Sie Citizen Developer verbessern und skalieren. Registrieren Sie sich hier.

„Der Terminator“, „Die Matrix“, „Ich, Roboter“.

Das sind alles Filme, in denen Maschinen empfindungsfähig werden und versuchen, die Weltherrschaft an sich zu reißen (oder zumindest alle Menschen zu töten). Es ist eine beliebte Handlung, weil sie unsere tiefen Ängste vor Technologie anspricht. Werden unsere Geräte und die von ihnen gesammelten Daten gegen uns verwendet, wenn wir zu Web3 wechseln?

Das ist nicht nur Hollywood-Paranoia. In den letzten Jahren haben wir zunehmend Beweise dafür gesehen, dass unsere Daten auf eine Weise verwendet werden, die wir nie erwartet oder erwartet haben. Der Cambridge-Analytica-Skandal hat gezeigt, wie Facebook-Daten gesammelt und verwendet wurden, um Wähler bei den US-Präsidentschaftswahlen zu manipulieren.

Google wurde mit einer Geldstrafe belegt, weil es Daten von Kindern ohne elterliche Zustimmung gesammelt hat. Und die Gesichtserkennungstechnologie wird von Strafverfolgungsbehörden und Unternehmen mit wenig Regulierung oder Aufsicht eingesetzt.

Vorfall

Low-Code/No-Code-Vertex

Erfahren Sie am 9. November, wie Sie Low-Code-Programme auf einfache Weise erstellen, skalieren und verwalten, um allen Erfolg zu verschaffen. Melden Sie sich noch heute für Ihren kostenlosen Pass an.

hier registrieren

In diesem Artikel werden wir uns mit den Gefahren ungehinderter Datenpipelines befassen und wie die Blockchain-Technologie, insbesondere wenn wir uns in Richtung Web3 bewegen, möglicherweise die Undurchsichtigkeit der Blackbox-Algorithmen verringern kann.

Die Welt läuft auf Algorithmen

Wir leben in einer Zeit, in der Algorithmen zunehmend Entscheidungen für uns treffen. Sie entscheiden, was wir in den sozialen Medien sehen, welche Anzeigen uns gefallen könnten und wer einen Kredit bekommt und wer nicht.

Algorithmen können einfach sein, wie der, der entscheidet, in welcher Reihenfolge Ergebnisse in einer Suchmaschine angezeigt werden. Oder sie können komplexer sein, wie sie von Social-Media-Unternehmen verwendet werden, um zu entscheiden, welche Beiträge uns in unseren Newsfeeds angezeigt werden.

Einige dieser Algorithmen sind auf Transparenz ausgelegt. Wir wissen zum Beispiel, wie der Suchalgorithmus von Google funktioniert. Aber viele andere sind undurchsichtig, was bedeutet, dass wir nicht wissen, wie sie funktionieren oder welche Daten sie verwenden, um Entscheidungen zu treffen.

Dieser Mangel an Transparenz ist aus mehreren Gründen besorgniserregend. Einerseits kann dies zu voreingenommenen Entscheidungen führen. Wenn ein Algorithmus bei seiner Entscheidungsfindung Rasse oder Geschlecht als Faktor verwendet, spiegelt sich diese Verzerrung in den Ergebnissen wider.

Zweitens können undurchsichtige Algorithmen manipuliert werden. Wenn wir nicht wissen, wie ein Algorithmus funktioniert, können wir nicht verstehen, wie man ihn spielt. Aus diesem Grund halten viele Unternehmen ihre Algorithmen geheim – sie wollen nicht, dass Menschen das System manipulieren.

Schließlich sind undurchsichtige Algorithmen schwer zur Rechenschaft zu ziehen. Wenn ein Algorithmus einen Fehler macht, kann es schwierig sein zu verstehen, warum oder wie er behoben werden kann. Dieser Mangel an Rechenschaftspflicht ist besonders problematisch, wenn Algorithmen für wichtige Entscheidungen verwendet werden, z. B. ob jemand einen Kredit oder einen Job bekommt oder nicht.

Die Gefahren von Datenpipelines

Das Problem mit Algorithmen ist, dass sie nur so gut sind wie die Daten, die sie verwenden. Wenn die Daten voreingenommen sind, wird der Algorithmus voreingenommen sein. Wenn die Daten unvollständig sind, trifft der Algorithmus ungenaue Vorhersagen.

Und oft, die...

Der Aufstieg der Maschinen: Wofür werden Ihre Daten verwendet?

Besuchen Sie uns am 9. November, um auf dem Low-Code/No-Code-Gipfel zu erfahren, wie Sie erfolgreich innovativ sein und Effizienz steigern können, indem Sie Citizen Developer verbessern und skalieren. Registrieren Sie sich hier.

„Der Terminator“, „Die Matrix“, „Ich, Roboter“.

Das sind alles Filme, in denen Maschinen empfindungsfähig werden und versuchen, die Weltherrschaft an sich zu reißen (oder zumindest alle Menschen zu töten). Es ist eine beliebte Handlung, weil sie unsere tiefen Ängste vor Technologie anspricht. Werden unsere Geräte und die von ihnen gesammelten Daten gegen uns verwendet, wenn wir zu Web3 wechseln?

Das ist nicht nur Hollywood-Paranoia. In den letzten Jahren haben wir zunehmend Beweise dafür gesehen, dass unsere Daten auf eine Weise verwendet werden, die wir nie erwartet oder erwartet haben. Der Cambridge-Analytica-Skandal hat gezeigt, wie Facebook-Daten gesammelt und verwendet wurden, um Wähler bei den US-Präsidentschaftswahlen zu manipulieren.

Google wurde mit einer Geldstrafe belegt, weil es Daten von Kindern ohne elterliche Zustimmung gesammelt hat. Und die Gesichtserkennungstechnologie wird von Strafverfolgungsbehörden und Unternehmen mit wenig Regulierung oder Aufsicht eingesetzt.

Vorfall

Low-Code/No-Code-Vertex

Erfahren Sie am 9. November, wie Sie Low-Code-Programme auf einfache Weise erstellen, skalieren und verwalten, um allen Erfolg zu verschaffen. Melden Sie sich noch heute für Ihren kostenlosen Pass an.

hier registrieren

In diesem Artikel werden wir uns mit den Gefahren ungehinderter Datenpipelines befassen und wie die Blockchain-Technologie, insbesondere wenn wir uns in Richtung Web3 bewegen, möglicherweise die Undurchsichtigkeit der Blackbox-Algorithmen verringern kann.

Die Welt läuft auf Algorithmen

Wir leben in einer Zeit, in der Algorithmen zunehmend Entscheidungen für uns treffen. Sie entscheiden, was wir in den sozialen Medien sehen, welche Anzeigen uns gefallen könnten und wer einen Kredit bekommt und wer nicht.

Algorithmen können einfach sein, wie der, der entscheidet, in welcher Reihenfolge Ergebnisse in einer Suchmaschine angezeigt werden. Oder sie können komplexer sein, wie sie von Social-Media-Unternehmen verwendet werden, um zu entscheiden, welche Beiträge uns in unseren Newsfeeds angezeigt werden.

Einige dieser Algorithmen sind auf Transparenz ausgelegt. Wir wissen zum Beispiel, wie der Suchalgorithmus von Google funktioniert. Aber viele andere sind undurchsichtig, was bedeutet, dass wir nicht wissen, wie sie funktionieren oder welche Daten sie verwenden, um Entscheidungen zu treffen.

Dieser Mangel an Transparenz ist aus mehreren Gründen besorgniserregend. Einerseits kann dies zu voreingenommenen Entscheidungen führen. Wenn ein Algorithmus bei seiner Entscheidungsfindung Rasse oder Geschlecht als Faktor verwendet, spiegelt sich diese Verzerrung in den Ergebnissen wider.

Zweitens können undurchsichtige Algorithmen manipuliert werden. Wenn wir nicht wissen, wie ein Algorithmus funktioniert, können wir nicht verstehen, wie man ihn spielt. Aus diesem Grund halten viele Unternehmen ihre Algorithmen geheim – sie wollen nicht, dass Menschen das System manipulieren.

Schließlich sind undurchsichtige Algorithmen schwer zur Rechenschaft zu ziehen. Wenn ein Algorithmus einen Fehler macht, kann es schwierig sein zu verstehen, warum oder wie er behoben werden kann. Dieser Mangel an Rechenschaftspflicht ist besonders problematisch, wenn Algorithmen für wichtige Entscheidungen verwendet werden, z. B. ob jemand einen Kredit oder einen Job bekommt oder nicht.

Die Gefahren von Datenpipelines

Das Problem mit Algorithmen ist, dass sie nur so gut sind wie die Daten, die sie verwenden. Wenn die Daten voreingenommen sind, wird der Algorithmus voreingenommen sein. Wenn die Daten unvollständig sind, trifft der Algorithmus ungenaue Vorhersagen.

Und oft, die...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow