Ein Rätsel in der Notaufnahme? Bitten Sie Dr. Chatbot um eine Diagnose.

An einer medizinischen Fakultät in Boston verwenden Dozenten ChatGPT in Schulungsübungen, um Studenten zu helfen, wie Ärzte zu denken.

Bei der Patientin handelte es sich um eine 39-jährige Frau, die die Notaufnahme des Beth Israel Deaconess Medical Center in Boston besuchte. Sein linkes Knie schmerzte ihn schon seit mehreren Tagen. Am Tag zuvor hatte sie 102 Grad Fieber gehabt. Es war jetzt weg, aber sie hatte immer noch Schüttelfrost. Und ihr Knie war rot und geschwollen.

Wie lautete die Diagnose?

An einem kürzlichen heißen Freitag stellte die Assistenzärztin Dr. Megan Landon diesen Fall aus dem wirklichen Leben vor einem Raum voller Medizinstudenten und Assistenzärzte. Sie wurden zusammengebracht, um eine Fähigkeit zu erlernen, die höllisch schwer zu vermitteln sein kann: wie man wie ein Arzt denkt.

„Ärzte sind schrecklich darin, anderen Ärzten beizubringen, wie wir denken“, sagte Dr. Adam Rodman, Internist, Medizinhistoriker und Veranstalter bei Beth Israel Deaconess.

M Aber dieses Mal Sie könnten einen Experten hinzuziehen, der ihnen bei der Diagnose hilft – GPT-4, die neueste Version eines Chatbots der Firma OpenAI.

Künstliche Intelligenz verändert viele Aspekte der medizinischen Praxis, und einige Mediziner nutzen diese Tools, um ihnen bei der Diagnose zu helfen. Ärzte am Beth Israel Deaconess, einem Lehrkrankenhaus der Harvard Medical School, beschlossen zu untersuchen, wie Chatbots bei der Ausbildung zukünftiger Ärzte eingesetzt – und missbraucht – werden können, wenn sie einen Kollegen beiseite nehmen und ihn nach seiner Meinung zu einem schwierigen Fall fragen. Die Idee besteht darin, einen Chatbot auf die gleiche Weise zu nutzen, wie Ärzte andere um Vorschläge und Ideen bitten.

Seit mehr als einem Jahrhundert werden Ärzte als Detektive dargestellt, die Hinweise zusammenfügen und diese nutzen, um den Täter zu finden. Aber erfahrene Ärzte nutzen tatsächlich eine andere Methode – die Mustererkennung – um herauszufinden, was falsch ist. In der Medizin spricht man von einem Krankheitsskript: Anzeichen, Symptome und Testergebnisse, die Ärzte zusammenfügen, um eine zusammenhängende Geschichte zu erzählen, die auf ähnlichen Fällen basiert, die sie kennen oder selbst gesehen haben. p>

Forschung Forscher haben mehr als ein halbes Jahrhundert lang versucht, Computerprogramme für medizinische Diagnosen zu entwickeln, aber nichts war wirklich erfolgreich.

Ärzte sagen, GPT-4 ist anders. „Es wird etwas entstehen, das einem Krankheitsszenario bemerkenswert ähnlich ist“, sagte Dr. Rodman. Auf diese Weise, fügte er hinzu, „unterscheidet es sich grundlegend von einer Suchmaschine“.

Dr. Rodman und andere Ärzte der Beth Israel Deaconess fragten GPT-4 nach möglichen Diagnosen in schwierigen Fällen. In einer letzten Monat in der medizinischen Fachzeitschrift JAMA veröffentlichten Studie stellten sie fest, dass er bei den wöchentlichen diagnostischen Herausforderungen, die im New England Journal of Medicine veröffentlicht wurden, besser abgeschnitten hat als die meisten Ärzte.

Sie haben jedoch gelernt, dass die Verwendung des Programms eine Kunst ist und Fallstricke birgt. Christopher Smith, Leiter des Facharztprogramms für Innere Medizin des medizinischen Zentrums, sagte, Medizinstudenten und Assistenzärzte würden es „definitiv nutzen“. Aber er fügte hinzu: „Ob sie etwas lernen, ist eine offene Frage.“ Sie können Diagnosen auf die gleiche Weise stellen, wie sie sich bei der Lösung einer mathematischen Aufgabe auf einen Taschenrechner auf ihrem Telefon verlassen würden. Das sei gefährlich, sagte Dr. Smith.

Lernen, sagte er, beinhalte den Versuch, Dinge herauszufinden: „So erinnern wir uns an Dinge. Ein Teil des Lernens ist der Kampf. Wenn man das Lernen an GPT auslagert, ist dieser Kampf vorbei.“

L Bei dem Treffen teilten sich die Studenten und Bewohner in Gruppen auf und versuchten, etwas herauszufinden Was war mit dem Patienten mit dem geschwollenen Knie los? Dann wandten sie sich GPT-4 zu.

Ein Rätsel in der Notaufnahme? Bitten Sie Dr. Chatbot um eine Diagnose.

An einer medizinischen Fakultät in Boston verwenden Dozenten ChatGPT in Schulungsübungen, um Studenten zu helfen, wie Ärzte zu denken.

Bei der Patientin handelte es sich um eine 39-jährige Frau, die die Notaufnahme des Beth Israel Deaconess Medical Center in Boston besuchte. Sein linkes Knie schmerzte ihn schon seit mehreren Tagen. Am Tag zuvor hatte sie 102 Grad Fieber gehabt. Es war jetzt weg, aber sie hatte immer noch Schüttelfrost. Und ihr Knie war rot und geschwollen.

Wie lautete die Diagnose?

An einem kürzlichen heißen Freitag stellte die Assistenzärztin Dr. Megan Landon diesen Fall aus dem wirklichen Leben vor einem Raum voller Medizinstudenten und Assistenzärzte. Sie wurden zusammengebracht, um eine Fähigkeit zu erlernen, die höllisch schwer zu vermitteln sein kann: wie man wie ein Arzt denkt.

„Ärzte sind schrecklich darin, anderen Ärzten beizubringen, wie wir denken“, sagte Dr. Adam Rodman, Internist, Medizinhistoriker und Veranstalter bei Beth Israel Deaconess.

M Aber dieses Mal Sie könnten einen Experten hinzuziehen, der ihnen bei der Diagnose hilft – GPT-4, die neueste Version eines Chatbots der Firma OpenAI.

Künstliche Intelligenz verändert viele Aspekte der medizinischen Praxis, und einige Mediziner nutzen diese Tools, um ihnen bei der Diagnose zu helfen. Ärzte am Beth Israel Deaconess, einem Lehrkrankenhaus der Harvard Medical School, beschlossen zu untersuchen, wie Chatbots bei der Ausbildung zukünftiger Ärzte eingesetzt – und missbraucht – werden können, wenn sie einen Kollegen beiseite nehmen und ihn nach seiner Meinung zu einem schwierigen Fall fragen. Die Idee besteht darin, einen Chatbot auf die gleiche Weise zu nutzen, wie Ärzte andere um Vorschläge und Ideen bitten.

Seit mehr als einem Jahrhundert werden Ärzte als Detektive dargestellt, die Hinweise zusammenfügen und diese nutzen, um den Täter zu finden. Aber erfahrene Ärzte nutzen tatsächlich eine andere Methode – die Mustererkennung – um herauszufinden, was falsch ist. In der Medizin spricht man von einem Krankheitsskript: Anzeichen, Symptome und Testergebnisse, die Ärzte zusammenfügen, um eine zusammenhängende Geschichte zu erzählen, die auf ähnlichen Fällen basiert, die sie kennen oder selbst gesehen haben. p>

Forschung Forscher haben mehr als ein halbes Jahrhundert lang versucht, Computerprogramme für medizinische Diagnosen zu entwickeln, aber nichts war wirklich erfolgreich.

Ärzte sagen, GPT-4 ist anders. „Es wird etwas entstehen, das einem Krankheitsszenario bemerkenswert ähnlich ist“, sagte Dr. Rodman. Auf diese Weise, fügte er hinzu, „unterscheidet es sich grundlegend von einer Suchmaschine“.

Dr. Rodman und andere Ärzte der Beth Israel Deaconess fragten GPT-4 nach möglichen Diagnosen in schwierigen Fällen. In einer letzten Monat in der medizinischen Fachzeitschrift JAMA veröffentlichten Studie stellten sie fest, dass er bei den wöchentlichen diagnostischen Herausforderungen, die im New England Journal of Medicine veröffentlicht wurden, besser abgeschnitten hat als die meisten Ärzte.

Sie haben jedoch gelernt, dass die Verwendung des Programms eine Kunst ist und Fallstricke birgt. Christopher Smith, Leiter des Facharztprogramms für Innere Medizin des medizinischen Zentrums, sagte, Medizinstudenten und Assistenzärzte würden es „definitiv nutzen“. Aber er fügte hinzu: „Ob sie etwas lernen, ist eine offene Frage.“ Sie können Diagnosen auf die gleiche Weise stellen, wie sie sich bei der Lösung einer mathematischen Aufgabe auf einen Taschenrechner auf ihrem Telefon verlassen würden. Das sei gefährlich, sagte Dr. Smith.

Lernen, sagte er, beinhalte den Versuch, Dinge herauszufinden: „So erinnern wir uns an Dinge. Ein Teil des Lernens ist der Kampf. Wenn man das Lernen an GPT auslagert, ist dieser Kampf vorbei.“

L Bei dem Treffen teilten sich die Studenten und Bewohner in Gruppen auf und versuchten, etwas herauszufinden Was war mit dem Patienten mit dem geschwollenen Knie los? Dann wandten sie sich GPT-4 zu.

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow