Wie Microsoft Copilot verbessern und die Open-Source-Kontroverse entschärfen könnte

Sehen Sie sich die On-Demand-Sessions des Low-Code/No-Code Summit an, um zu erfahren, wie Sie erfolgreich innovativ sein und Effizienz steigern können, indem Sie Citizen Developer verbessern und skalieren. Jetzt ansehen em>.

GitHub Copilot war Gegenstand einiger Kontroversen, seit Microsoft es im Sommer 2021 angekündigt hatte. In jüngerer Zeit wurde Microsoft vom Programmierer und Anwalt Matthew Butterick verklagt, der behauptete, Copilot von GitHub habe gegen die Bedingungen von Open-Source-Lizenzen verstoßen und die Rechte der Programmierer. Trotz der Klage habe ich das Gefühl, dass Copilot wahrscheinlich in der einen oder anderen Form bleiben wird, aber es hat mich zum Nachdenken gebracht: Wenn Entwickler ein KI-unterstütztes Codegenerierungstool verwenden, wäre es produktiver, darüber nachzudenken, wie man es verbessern kann für dein Daseinsrecht zu kämpfen.

Hinter der Copilot-Kontroverse

Copilot ist ein prädiktiver Codegenerator, der OpenAI Codex nutzt, um Code (und ganze Funktionen) vorzuschlagen, während Programmierer ihren eigenen Code erstellen. Es ist dem Textvorschlag in Google Docs oder den Google-Suchfunktionen sehr ähnlich. Wenn Sie mit dem Erstellen einer ursprünglichen Codezeile beginnen, schlägt Copilot Code vor, um die Zeile oder das Fragment basierend auf einem gespeicherten Repository mit ähnlichem Code und ähnlichen Funktionen zu vervollständigen. Sie können den Vorschlag annehmen oder durch Ihren eigenen ersetzen, wodurch Sie Zeit und Mühe sparen können.

Die Kontroverse ergibt sich aus der Tatsache, dass Copilot seine Vorschläge aus einer großen Menge von Open-Source-Code bezieht, den es verarbeitet hat. Die Idee, die Arbeit von Open-Source-Software-Mitwirkenden ohne Namensnennung zu monetarisieren, hat viele Mitglieder der GitHub-Community verärgert. Es führte sogar zu einem Aufruf an die Open-Source-Community, GitHub einzustellen.

Es gibt gültige Argumente für beide Seiten dieser Kontroverse. Die Entwickler, die ihre ursprünglichen Ideen freizügig teilten, hatten wahrscheinlich nicht die Absicht, dass sie verpackt und zu Geld gemacht werden. Andererseits könnte man argumentieren, dass das, was Microsoft zu Geld gemacht hat, nicht der Code ist, sondern die KI-Technologie, um diesen Code in einem angemessenen Kontext anzuwenden. Jeder mit einem kostenlosen GitHub-Konto kann auf den Code zugreifen, ihn kopieren und in seinen eigenen Projekten verwenden – ohne Namensnennung. Insofern verwendet Microsoft den Code nicht anders, als er immer verwendet wurde.

Vorfall

Smart Security Summit

Erfahren Sie am 8. Dezember mehr über die wesentliche Rolle von KI und ML in der Cybersicherheit und branchenspezifische Fallstudien. Melden Sie sich noch heute für Ihren kostenlosen Pass an.

Jetzt registrieren Copilot auf die nächste Stufe bringen

Als jemand, der Copilot verwendet und gesehen hat, wie es Zeit spart und die Produktivität steigert, sehe ich eine Gelegenheit für Microsoft, Copilot zu verbessern und einige der Beschwerden von Kritikern anzugehen.

Was die nächste Generation von Copilot verbessern würde, ist ein besseres Verständnis für den Kontext ihrer Vorschläge. Um brauchbare Empfehlungen zu geben, könnte Copilot diese auf mehr als nur einer GitHub-Suche basieren. Vorschläge funktionieren möglicherweise im spezifischen Kontext des zu schreibenden Codes. Hinter den Vorschlägen muss eine bedeutende KI-Technologie am Werk sein. Dies ist sowohl der einzigartige Wert von Copilot als auch der Schlüssel zu seiner Verbesserung.

Softwareprogrammierer möchten wissen, woher Vorschläge kommen, bevor sie sie akzeptieren, und verstehen, dass der Code auf ihre spezifischen Bedürfnisse zugeschnitten ist. Das Letzte, was wir wollen, ist vorgeschlagenen Code zu verwenden, der gut genug funktioniert, um nach dem Kompilieren zu funktionieren, aber ineffizient oder schlimmer noch, anfällig für Fehler oder Sicherheitsrisiken ist.

Indem Sie mehr Kontext bereitstellen...

Wie Microsoft Copilot verbessern und die Open-Source-Kontroverse entschärfen könnte

Sehen Sie sich die On-Demand-Sessions des Low-Code/No-Code Summit an, um zu erfahren, wie Sie erfolgreich innovativ sein und Effizienz steigern können, indem Sie Citizen Developer verbessern und skalieren. Jetzt ansehen em>.

GitHub Copilot war Gegenstand einiger Kontroversen, seit Microsoft es im Sommer 2021 angekündigt hatte. In jüngerer Zeit wurde Microsoft vom Programmierer und Anwalt Matthew Butterick verklagt, der behauptete, Copilot von GitHub habe gegen die Bedingungen von Open-Source-Lizenzen verstoßen und die Rechte der Programmierer. Trotz der Klage habe ich das Gefühl, dass Copilot wahrscheinlich in der einen oder anderen Form bleiben wird, aber es hat mich zum Nachdenken gebracht: Wenn Entwickler ein KI-unterstütztes Codegenerierungstool verwenden, wäre es produktiver, darüber nachzudenken, wie man es verbessern kann für dein Daseinsrecht zu kämpfen.

Hinter der Copilot-Kontroverse

Copilot ist ein prädiktiver Codegenerator, der OpenAI Codex nutzt, um Code (und ganze Funktionen) vorzuschlagen, während Programmierer ihren eigenen Code erstellen. Es ist dem Textvorschlag in Google Docs oder den Google-Suchfunktionen sehr ähnlich. Wenn Sie mit dem Erstellen einer ursprünglichen Codezeile beginnen, schlägt Copilot Code vor, um die Zeile oder das Fragment basierend auf einem gespeicherten Repository mit ähnlichem Code und ähnlichen Funktionen zu vervollständigen. Sie können den Vorschlag annehmen oder durch Ihren eigenen ersetzen, wodurch Sie Zeit und Mühe sparen können.

Die Kontroverse ergibt sich aus der Tatsache, dass Copilot seine Vorschläge aus einer großen Menge von Open-Source-Code bezieht, den es verarbeitet hat. Die Idee, die Arbeit von Open-Source-Software-Mitwirkenden ohne Namensnennung zu monetarisieren, hat viele Mitglieder der GitHub-Community verärgert. Es führte sogar zu einem Aufruf an die Open-Source-Community, GitHub einzustellen.

Es gibt gültige Argumente für beide Seiten dieser Kontroverse. Die Entwickler, die ihre ursprünglichen Ideen freizügig teilten, hatten wahrscheinlich nicht die Absicht, dass sie verpackt und zu Geld gemacht werden. Andererseits könnte man argumentieren, dass das, was Microsoft zu Geld gemacht hat, nicht der Code ist, sondern die KI-Technologie, um diesen Code in einem angemessenen Kontext anzuwenden. Jeder mit einem kostenlosen GitHub-Konto kann auf den Code zugreifen, ihn kopieren und in seinen eigenen Projekten verwenden – ohne Namensnennung. Insofern verwendet Microsoft den Code nicht anders, als er immer verwendet wurde.

Vorfall

Smart Security Summit

Erfahren Sie am 8. Dezember mehr über die wesentliche Rolle von KI und ML in der Cybersicherheit und branchenspezifische Fallstudien. Melden Sie sich noch heute für Ihren kostenlosen Pass an.

Jetzt registrieren Copilot auf die nächste Stufe bringen

Als jemand, der Copilot verwendet und gesehen hat, wie es Zeit spart und die Produktivität steigert, sehe ich eine Gelegenheit für Microsoft, Copilot zu verbessern und einige der Beschwerden von Kritikern anzugehen.

Was die nächste Generation von Copilot verbessern würde, ist ein besseres Verständnis für den Kontext ihrer Vorschläge. Um brauchbare Empfehlungen zu geben, könnte Copilot diese auf mehr als nur einer GitHub-Suche basieren. Vorschläge funktionieren möglicherweise im spezifischen Kontext des zu schreibenden Codes. Hinter den Vorschlägen muss eine bedeutende KI-Technologie am Werk sein. Dies ist sowohl der einzigartige Wert von Copilot als auch der Schlüssel zu seiner Verbesserung.

Softwareprogrammierer möchten wissen, woher Vorschläge kommen, bevor sie sie akzeptieren, und verstehen, dass der Code auf ihre spezifischen Bedürfnisse zugeschnitten ist. Das Letzte, was wir wollen, ist vorgeschlagenen Code zu verwenden, der gut genug funktioniert, um nach dem Kompilieren zu funktionieren, aber ineffizient oder schlimmer noch, anfällig für Fehler oder Sicherheitsrisiken ist.

Indem Sie mehr Kontext bereitstellen...

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow