Wie Hugging Face und ServiceNow Code-generierende LLM-Herausforderungen lösen

Besuchen Sie uns am 9. November, um auf dem Low-Code/No-Code-Gipfel zu erfahren, wie Sie erfolgreich innovativ sein und Effizienz steigern können, indem Sie Citizen Developer verbessern und skalieren. Registrieren Sie sich hier.

Vor etwas mehr als einem Jahr war die Verwendung von Large Language Models (LLMs) zur Generierung von Softwarecode ein unbewiesenes, hochmodernes wissenschaftliches Experiment. Aber während die Codegenerierung zu einer der erfolgreichsten Anwendungen von LLMs geworden ist, hat BigCode, das kürzlich von Hugging Face und ServiceNow eingeführt wurde, daran gearbeitet, einige der größten Probleme für LLM-Codegeneratoren zu lösen.

>

Heutzutage verwenden viele Entwickler LLM-basierte Tools wie GitHub Copilot, um die Produktivität zu verbessern, im Fluss zu bleiben und ihre Arbeit angenehmer zu gestalten. Mit zunehmender Reife der LLM-gestützten Codierung beginnen wir jedoch auch, die Herausforderungen aufzudecken, die sie bewältigen muss, einschließlich Lizenzierung, Transparenz, Sicherheit und Kontrolle.

The Stack, ein kürzlich vom BigCode-Projekt veröffentlichter Quellcode-Datensatz, befasst sich mit einigen dieser Probleme. Es hebt auch einige der bekannten Hürden hervor, die noch zu lösen sind, da die auf künstlicher Intelligenz (KI) basierende Codegenerierung immer mehr zum Mainstream wird.

LLM- und Code-Lizenz

"Die kürzliche Einführung von Code-LLMs hat gezeigt, dass sie Entwickler produktiver machen und Softwareentwicklung für Menschen mit weniger technischen Kenntnissen zugänglich machen können", sagte Leandro von Werra, Machine Learning Engineer bei Hugging Opposite, gegenüber VentureBeat.

Vorfall

Low-Code/No-Code-Vertex

Erfahren Sie am 9. November, wie Sie Low-Code-Programme auf einfache Weise erstellen, skalieren und verwalten, um allen Erfolg zu verschaffen. Melden Sie sich noch heute für Ihren kostenlosen Pass an.

hier registrieren

Diese Sprachmodelle können eine Vielzahl von Aufgaben erfüllen. Programmierer verwenden Tools wie Copilot und Codex, um ganze Klassen und Funktionen aus Textbeschreibungen zu schreiben. Dies kann sehr nützlich sein, um alltägliche Teile der Programmierung zu automatisieren, wie das Einrichten von Webservern, das Extrahieren von Informationen aus Datenbanken oder sogar das Schreiben von Python-Code für ein neuronales Netzwerk und seine Trainingsschleife. Laut von Werra werden Softwareingenieure in Zukunft LLMs verwenden können, um Legacy-Code zu pflegen, der in einer unbekannten Programmiersprache geschrieben wurde.

Die zunehmende Verwendung von LLMs beim Programmieren hat jedoch mehrere Bedenken aufgeworfen, einschließlich Lizenzierungsfragen. Muster wie Copilot generieren Code basierend auf Mustern, die sie aus ihren Trainingsbeispielen gelernt haben, von denen einige möglicherweise restriktiven Lizenzen unterliegen.

"Es wurden Fragen aufgeworfen, ob diese KI-Modelle den aktuellen Open-Source-Lizenzen entsprechen, sowohl für das Training als auch für die Modellgenerierung, und welche sozialen Auswirkungen diese Technologie auf die Community hat. Open-Source-Software", sagte von Werra.

Auch wenn Open-Source-Lizenzen die Nutzung eines Code-Repositorys rechtlich gestatten, wurden diese Lizenzen vor dem modernen Deep Learning und der Sammlung großer Datensätze für Trainingsmodelle entwickelt. Daher haben Entwickler möglicherweise nicht beabsichtigt, dass ihr Code in Trainingssprachmodellen verwendet wird.

"Die Fragen der Zustimmung und der Absicht bei der Verwendung von Benutzercode zum Trainieren tiefer neuronaler Netze werden in den aktuellen Quellen für offene Lizenzen nicht behandelt; die Community muss noch Standards entwickeln wie man diese Technologie verantwortungsbewusst entwickelt und die Wünsche respektiert ...

Wie Hugging Face und ServiceNow Code-generierende LLM-Herausforderungen lösen

Besuchen Sie uns am 9. November, um auf dem Low-Code/No-Code-Gipfel zu erfahren, wie Sie erfolgreich innovativ sein und Effizienz steigern können, indem Sie Citizen Developer verbessern und skalieren. Registrieren Sie sich hier.

Vor etwas mehr als einem Jahr war die Verwendung von Large Language Models (LLMs) zur Generierung von Softwarecode ein unbewiesenes, hochmodernes wissenschaftliches Experiment. Aber während die Codegenerierung zu einer der erfolgreichsten Anwendungen von LLMs geworden ist, hat BigCode, das kürzlich von Hugging Face und ServiceNow eingeführt wurde, daran gearbeitet, einige der größten Probleme für LLM-Codegeneratoren zu lösen.

>

Heutzutage verwenden viele Entwickler LLM-basierte Tools wie GitHub Copilot, um die Produktivität zu verbessern, im Fluss zu bleiben und ihre Arbeit angenehmer zu gestalten. Mit zunehmender Reife der LLM-gestützten Codierung beginnen wir jedoch auch, die Herausforderungen aufzudecken, die sie bewältigen muss, einschließlich Lizenzierung, Transparenz, Sicherheit und Kontrolle.

The Stack, ein kürzlich vom BigCode-Projekt veröffentlichter Quellcode-Datensatz, befasst sich mit einigen dieser Probleme. Es hebt auch einige der bekannten Hürden hervor, die noch zu lösen sind, da die auf künstlicher Intelligenz (KI) basierende Codegenerierung immer mehr zum Mainstream wird.

LLM- und Code-Lizenz

"Die kürzliche Einführung von Code-LLMs hat gezeigt, dass sie Entwickler produktiver machen und Softwareentwicklung für Menschen mit weniger technischen Kenntnissen zugänglich machen können", sagte Leandro von Werra, Machine Learning Engineer bei Hugging Opposite, gegenüber VentureBeat.

Vorfall

Low-Code/No-Code-Vertex

Erfahren Sie am 9. November, wie Sie Low-Code-Programme auf einfache Weise erstellen, skalieren und verwalten, um allen Erfolg zu verschaffen. Melden Sie sich noch heute für Ihren kostenlosen Pass an.

hier registrieren

Diese Sprachmodelle können eine Vielzahl von Aufgaben erfüllen. Programmierer verwenden Tools wie Copilot und Codex, um ganze Klassen und Funktionen aus Textbeschreibungen zu schreiben. Dies kann sehr nützlich sein, um alltägliche Teile der Programmierung zu automatisieren, wie das Einrichten von Webservern, das Extrahieren von Informationen aus Datenbanken oder sogar das Schreiben von Python-Code für ein neuronales Netzwerk und seine Trainingsschleife. Laut von Werra werden Softwareingenieure in Zukunft LLMs verwenden können, um Legacy-Code zu pflegen, der in einer unbekannten Programmiersprache geschrieben wurde.

Die zunehmende Verwendung von LLMs beim Programmieren hat jedoch mehrere Bedenken aufgeworfen, einschließlich Lizenzierungsfragen. Muster wie Copilot generieren Code basierend auf Mustern, die sie aus ihren Trainingsbeispielen gelernt haben, von denen einige möglicherweise restriktiven Lizenzen unterliegen.

"Es wurden Fragen aufgeworfen, ob diese KI-Modelle den aktuellen Open-Source-Lizenzen entsprechen, sowohl für das Training als auch für die Modellgenerierung, und welche sozialen Auswirkungen diese Technologie auf die Community hat. Open-Source-Software", sagte von Werra.

Auch wenn Open-Source-Lizenzen die Nutzung eines Code-Repositorys rechtlich gestatten, wurden diese Lizenzen vor dem modernen Deep Learning und der Sammlung großer Datensätze für Trainingsmodelle entwickelt. Daher haben Entwickler möglicherweise nicht beabsichtigt, dass ihr Code in Trainingssprachmodellen verwendet wird.

"Die Fragen der Zustimmung und der Absicht bei der Verwendung von Benutzercode zum Trainieren tiefer neuronaler Netze werden in den aktuellen Quellen für offene Lizenzen nicht behandelt; die Community muss noch Standards entwickeln wie man diese Technologie verantwortungsbewusst entwickelt und die Wünsche respektiert ...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow