CalypsoAI bietet Tests und Validierungen für ML-Modelle, die von der TSA verwendet werden

Erfahren Sie am 9. November auf dem Virtual Low-Code/No-Code Summit, wie Ihr Unternehmen Apps entwickeln kann, um Aufgaben zu automatisieren und mit Low-Code/No-Code-Tools effizienter zu werden. Registrieren Sie sich hier.

Modelle der künstlichen Intelligenz (KI) finden zunehmend ihren Weg in kritische Aspekte von Unternehmensanwendungsfällen und werden weltweit breiter angenommen.

Ein Bereich, in dem KI ein Zuhause findet, ist die Transport Security Administration (TSA), zu deren Aufgaben die Gepäckkontrolle an US-Flughäfen gehört. Eine derzeit laufende Initiative innerhalb der Wissenschafts- und Technologiedirektion des Heimatschutzministeriums (DHS), ein Programm namens Screening at Speed ​​(SaS), wird insbesondere KI implementieren, um den Gepäckkontrollprozess zu beschleunigen.

Ein Teil der Entwicklung dieses Filtersystems besteht darin, die Integrität der KI-Modelle in Bezug auf Zuverlässigkeit und Widerstandsfähigkeit gegen mögliche Angriffe durch nachteilige KI zu testen und zu validieren. Hier verwendet das DHS die VESPR Validate-Technologie von CalypsoAI.

„Wir konzentrieren uns wirklich auf das Testen und Validieren von Modellen für maschinelles Lernen (ML), damit sie sicher eingesetzt werden können“, sagte Neil Serebryany, CEO von CalypsoAI, gegenüber VentureBeat.

Vorfall

Low-Code/No-Code-Vertex

Schließen Sie sich am 9. November virtuell den Top-Führungskräften von heute beim Low-Code/No-Code-Gipfel an. Melden Sie sich noch heute für Ihren kostenlosen Pass an.

hier registrieren Die Herausforderungen beim Testen von KI-Modellen für den Produktionseinsatz

Eine im August veröffentlichte Gartner-Studie ergab, dass nur die Hälfte aller gebauten KI-Modelle tatsächlich in Produktion gehen.

Dafür gibt es mehrere Gründe, einschließlich Test- und Validierungsproblemen. Laut Serebryany müssen beim Testen und Validieren von KI-Modellen sowohl menschliche als auch technische Faktoren berücksichtigt werden. Um jemandem dabei zu helfen, das Vertrauen zu gewinnen, das er benötigt, um ein Modell in der Produktion bereitzustellen, muss die menschliche Seite angesprochen werden. Zu den menschlichen Faktoren gehört die Fähigkeit, Informationen darüber zu kommunizieren, wo das Modell funktioniert, wo nicht und wo seine Schwachstellen liegen. Auf technischer Ebene sagte Serebryany, dass es notwendig sei, die Modelle so stark und robust wie möglich zu machen.

Vor der Gründung von CalypsoAI hatte Serebryany in der Regierung gearbeitet, wo er ein wachsendes Interesse an maschinellem Lernen (ML) bemerkte. Was er immer wieder sieht, sind Sicherheitsbedenken, einschließlich der Notwendigkeit, sicherzustellen, dass gegnerische Machine-Learning-Angriffe keine negativen Auswirkungen auf ein Modell haben. Adversarial ML-Angriffe verwenden eine Vielzahl von Techniken, um Modelle dazu zu bringen, das gewünschte Ergebnis zu erzielen.

Starke Geschäftsnachfrage nach KI-Tests und -Validierung

Der Bedarf an KI-Tests und -Validierung sowie dem Schutz vor gegnerischer KI geht über die Anwendungsfälle der Regierung hinaus.

Serebryany sagte, sein Unternehmen habe in letzter Zeit eine wachsende Nachfrage von Unternehmen erfahren. Tatsächlich hat Gartner das Unternehmen im Juli für seine KI-Skalierbarkeit in Unternehmensfunktionen als „Cool Vendor“ ausgezeichnet.

„Organisationen sind...

CalypsoAI bietet Tests und Validierungen für ML-Modelle, die von der TSA verwendet werden

Erfahren Sie am 9. November auf dem Virtual Low-Code/No-Code Summit, wie Ihr Unternehmen Apps entwickeln kann, um Aufgaben zu automatisieren und mit Low-Code/No-Code-Tools effizienter zu werden. Registrieren Sie sich hier.

Modelle der künstlichen Intelligenz (KI) finden zunehmend ihren Weg in kritische Aspekte von Unternehmensanwendungsfällen und werden weltweit breiter angenommen.

Ein Bereich, in dem KI ein Zuhause findet, ist die Transport Security Administration (TSA), zu deren Aufgaben die Gepäckkontrolle an US-Flughäfen gehört. Eine derzeit laufende Initiative innerhalb der Wissenschafts- und Technologiedirektion des Heimatschutzministeriums (DHS), ein Programm namens Screening at Speed ​​(SaS), wird insbesondere KI implementieren, um den Gepäckkontrollprozess zu beschleunigen.

Ein Teil der Entwicklung dieses Filtersystems besteht darin, die Integrität der KI-Modelle in Bezug auf Zuverlässigkeit und Widerstandsfähigkeit gegen mögliche Angriffe durch nachteilige KI zu testen und zu validieren. Hier verwendet das DHS die VESPR Validate-Technologie von CalypsoAI.

„Wir konzentrieren uns wirklich auf das Testen und Validieren von Modellen für maschinelles Lernen (ML), damit sie sicher eingesetzt werden können“, sagte Neil Serebryany, CEO von CalypsoAI, gegenüber VentureBeat.

Vorfall

Low-Code/No-Code-Vertex

Schließen Sie sich am 9. November virtuell den Top-Führungskräften von heute beim Low-Code/No-Code-Gipfel an. Melden Sie sich noch heute für Ihren kostenlosen Pass an.

hier registrieren Die Herausforderungen beim Testen von KI-Modellen für den Produktionseinsatz

Eine im August veröffentlichte Gartner-Studie ergab, dass nur die Hälfte aller gebauten KI-Modelle tatsächlich in Produktion gehen.

Dafür gibt es mehrere Gründe, einschließlich Test- und Validierungsproblemen. Laut Serebryany müssen beim Testen und Validieren von KI-Modellen sowohl menschliche als auch technische Faktoren berücksichtigt werden. Um jemandem dabei zu helfen, das Vertrauen zu gewinnen, das er benötigt, um ein Modell in der Produktion bereitzustellen, muss die menschliche Seite angesprochen werden. Zu den menschlichen Faktoren gehört die Fähigkeit, Informationen darüber zu kommunizieren, wo das Modell funktioniert, wo nicht und wo seine Schwachstellen liegen. Auf technischer Ebene sagte Serebryany, dass es notwendig sei, die Modelle so stark und robust wie möglich zu machen.

Vor der Gründung von CalypsoAI hatte Serebryany in der Regierung gearbeitet, wo er ein wachsendes Interesse an maschinellem Lernen (ML) bemerkte. Was er immer wieder sieht, sind Sicherheitsbedenken, einschließlich der Notwendigkeit, sicherzustellen, dass gegnerische Machine-Learning-Angriffe keine negativen Auswirkungen auf ein Modell haben. Adversarial ML-Angriffe verwenden eine Vielzahl von Techniken, um Modelle dazu zu bringen, das gewünschte Ergebnis zu erzielen.

Starke Geschäftsnachfrage nach KI-Tests und -Validierung

Der Bedarf an KI-Tests und -Validierung sowie dem Schutz vor gegnerischer KI geht über die Anwendungsfälle der Regierung hinaus.

Serebryany sagte, sein Unternehmen habe in letzter Zeit eine wachsende Nachfrage von Unternehmen erfahren. Tatsächlich hat Gartner das Unternehmen im Juli für seine KI-Skalierbarkeit in Unternehmensfunktionen als „Cool Vendor“ ausgezeichnet.

„Organisationen sind...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow