GitHub Copilot erweitert den Markt für die Generierung von KI-Codes mit einem neuen Geschäftsplan

Sehen Sie sich hier alle On-Demand-Sitzungen des Smart Security Summit an.

GitHub Copilot, ein Programmiertool, das künstliche Intelligenz (KI) verwendet, um Codevorschläge zu machen, veröffentlicht einen neuen Geschäftsplan, der es großen Unternehmen mit Hunderten von Entwicklern ermöglicht, sein Modell in großem Maßstab zu verwenden.

Copilot wurde erstmals 2021 in der Vorschau vorgestellt und verwendet das Codex Large Language Model (LLM) von OpenAI, um Textbeschreibungen in Quellcode umzuwandeln. Es kann eine Reihe von Aufgaben ausführen, von der automatischen Vervollständigung einer Codezeile bis zum Schreiben vollständiger Codeblöcke. Eine Studie von GitHub aus dem Jahr 2022 ergab, dass Copilot dazu beigetragen hat, Entwickler deutlich produktiver zu machen und sie beim Programmieren im Fluss zu halten.

Der neue Plan wird es GitHub und seinem Eigentümer Microsoft ermöglichen, Copilot in großem Maßstab zu entwickeln und ihre Position in der automatisierten Programmierung zu festigen, die einer der lukrativsten Märkte für generative KI sein kann.

> Beste Codevorschläge

Ein wichtiger Teil des LLM-Lebenszyklus ist das Sammeln von Benutzerfeedback und das Aktualisieren von Modellen. Seit dem offiziellen Start von Copilot hat GitHub das Feedback von Millionen von Entwicklern genutzt, um sein Modell zu verbessern, die Qualität der Codevorschläge zu verbessern und die Latenz zu reduzieren. Laut dem neuesten GitHub-Bericht schreibt Copilot durchschnittlich 46 % des Codes für Entwicklerbenutzer, gegenüber 27 % im Juni 2022.

Fall

Smart Security Summit auf Abruf

Erfahren Sie mehr über die wesentliche Rolle von KI und ML in der Cybersicherheit und branchenspezifische Fallstudien. Sehen Sie sich noch heute die On-Demand-Sitzungen an.

Schau hier

"Mit genaueren und ansprechenderen Codevorschlägen sehen wir eine höhere Akzeptanzrate [für Codevorschläge]", sagte Shuyin Zhao, Senior Director of Product Management für GitHub bei VentureBeat. „Das bedeutet, dass Entwickler, die GitHub Copilot verwenden, schneller als zuvor im Flow bleiben und Code schreiben – und infolgedessen produktiver und zufriedener sind.“

Kontext rund um den Code

GitHub hat auch einige neue Tipps hinzugefügt, um das Copilot-Erlebnis zu verbessern. Eines davon ist ein neues Paradigma namens "Fill-in-the-Middle" (FIM), das Copilot mehr Kontext gibt, um Codevorschläge zu verbessern.

Zuvor verwendete Copilot den Code vor der aktuellen Cursorposition des Benutzers als Eingabeaufforderung für das LLM. Mit FIM verwendet Copilot sowohl den Code vor als auch nach dem aktuellen Standort. Wenn also beispielsweise ein Entwickler versucht, einen Codeblock mitten in eine Datei einzufügen, hat Copilot mehr Kontext darüber, was nicht nur vor, sondern auch nach dem generierten Code passiert.

"Anstatt nur das Code-Präfix zu berücksichtigen, nutzt es auch das Code-Suffix und lässt eine Lücke in der Mitte, die Copilot füllen muss", sagte Zhao. "Auf diese Weise hat Copilot mehr Kontext über Ihren beabsichtigten Code und darüber, wie er mit dem Rest Ihres Programms übereinstimmen sollte. Wir haben gesehen, dass FIM durchweg qualitativ hochwertigere Codevorschläge produziert."

Gleichzeitig hat GitHub verschiedene Strategien entwickelt, um sicherzustellen, dass FIM die Modelllatenz nicht erhöht, sagte Zhao.

Multi-Modell-Ansatz

LLMs werden oft als End-to-End-Systeme dargestellt, die Multitasking ohne fremde Hilfe leisten können. Aber in der Praxis, a

GitHub Copilot erweitert den Markt für die Generierung von KI-Codes mit einem neuen Geschäftsplan

Sehen Sie sich hier alle On-Demand-Sitzungen des Smart Security Summit an.

GitHub Copilot, ein Programmiertool, das künstliche Intelligenz (KI) verwendet, um Codevorschläge zu machen, veröffentlicht einen neuen Geschäftsplan, der es großen Unternehmen mit Hunderten von Entwicklern ermöglicht, sein Modell in großem Maßstab zu verwenden.

Copilot wurde erstmals 2021 in der Vorschau vorgestellt und verwendet das Codex Large Language Model (LLM) von OpenAI, um Textbeschreibungen in Quellcode umzuwandeln. Es kann eine Reihe von Aufgaben ausführen, von der automatischen Vervollständigung einer Codezeile bis zum Schreiben vollständiger Codeblöcke. Eine Studie von GitHub aus dem Jahr 2022 ergab, dass Copilot dazu beigetragen hat, Entwickler deutlich produktiver zu machen und sie beim Programmieren im Fluss zu halten.

Der neue Plan wird es GitHub und seinem Eigentümer Microsoft ermöglichen, Copilot in großem Maßstab zu entwickeln und ihre Position in der automatisierten Programmierung zu festigen, die einer der lukrativsten Märkte für generative KI sein kann.

> Beste Codevorschläge

Ein wichtiger Teil des LLM-Lebenszyklus ist das Sammeln von Benutzerfeedback und das Aktualisieren von Modellen. Seit dem offiziellen Start von Copilot hat GitHub das Feedback von Millionen von Entwicklern genutzt, um sein Modell zu verbessern, die Qualität der Codevorschläge zu verbessern und die Latenz zu reduzieren. Laut dem neuesten GitHub-Bericht schreibt Copilot durchschnittlich 46 % des Codes für Entwicklerbenutzer, gegenüber 27 % im Juni 2022.

Fall

Smart Security Summit auf Abruf

Erfahren Sie mehr über die wesentliche Rolle von KI und ML in der Cybersicherheit und branchenspezifische Fallstudien. Sehen Sie sich noch heute die On-Demand-Sitzungen an.

Schau hier

"Mit genaueren und ansprechenderen Codevorschlägen sehen wir eine höhere Akzeptanzrate [für Codevorschläge]", sagte Shuyin Zhao, Senior Director of Product Management für GitHub bei VentureBeat. „Das bedeutet, dass Entwickler, die GitHub Copilot verwenden, schneller als zuvor im Flow bleiben und Code schreiben – und infolgedessen produktiver und zufriedener sind.“

Kontext rund um den Code

GitHub hat auch einige neue Tipps hinzugefügt, um das Copilot-Erlebnis zu verbessern. Eines davon ist ein neues Paradigma namens "Fill-in-the-Middle" (FIM), das Copilot mehr Kontext gibt, um Codevorschläge zu verbessern.

Zuvor verwendete Copilot den Code vor der aktuellen Cursorposition des Benutzers als Eingabeaufforderung für das LLM. Mit FIM verwendet Copilot sowohl den Code vor als auch nach dem aktuellen Standort. Wenn also beispielsweise ein Entwickler versucht, einen Codeblock mitten in eine Datei einzufügen, hat Copilot mehr Kontext darüber, was nicht nur vor, sondern auch nach dem generierten Code passiert.

"Anstatt nur das Code-Präfix zu berücksichtigen, nutzt es auch das Code-Suffix und lässt eine Lücke in der Mitte, die Copilot füllen muss", sagte Zhao. "Auf diese Weise hat Copilot mehr Kontext über Ihren beabsichtigten Code und darüber, wie er mit dem Rest Ihres Programms übereinstimmen sollte. Wir haben gesehen, dass FIM durchweg qualitativ hochwertigere Codevorschläge produziert."

Gleichzeitig hat GitHub verschiedene Strategien entwickelt, um sicherzustellen, dass FIM die Modelllatenz nicht erhöht, sagte Zhao.

Multi-Modell-Ansatz

LLMs werden oft als End-to-End-Systeme dargestellt, die Multitasking ohne fremde Hilfe leisten können. Aber in der Praxis, a

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow