ChatGPT: Veränderst Du wirklich die Gesundheit und Medizin?


Das ist eine Frage, die wir uns wohl immer öfter stellen werden - am besten gleich ChatGPT selber. Diskussionen über KI reichen schon länger zurück. Eine Liste von aufschlussreichen Links und Infos.

Die Mission von OpenAI, die den ChatGPT entwickelt hat, ist es, dass der gesamten Menschheit die Vorteile von KI zuteil kommt. Daran entzünden sich viele kontroverse Diskussionen. Aber KI und ChatGPT werden wohl das „New Normal“ werden – oder sind es schon? (Foto von Jonathan Kemper auf Unsplash)

 

Zugegeben: Das ist eine Auflistung von einigen Beiträgen und Podcasts, die vor allem vom Deutschlandfunk stammen. Erst einmal. Nach und nach kommen andere Beiträge dazu und sollen so einen Überblick über den Diskurs bei KI und ChatGPT bieten –  allgemein gesellschaftlich und natürlich, was diese Entwicklungen für Medizin und Pharma bedeuten. Die Beiträge reichen bis ins Jahr 2019 zurück.

Wenn Sie sich durchscrollen, können Sie sehen: Es sind auch andere Beiträge dazu gekommen. Haben Sie einen interessanten Beitrag/Link/Podcast/Kommentar zum Thema? Dann schicken Sie uns diesen gerne an die Redaktionsmail

Die Zulassungsbehörden stehen bei der KI-Regulierung vor einem Dilemma. Denn: die derzeitigen Regelungen für KI-Anwendungen sind mit einem definierten und festen Zweck, bestimmten klinischen Indikationen und einer spezifischen Zielgruppe konzipiert. Und das bedeutet, dass eine Anpassung oder Erweiterung nach der Zulassung nicht möglich ist, ohne das Qualitätsmanagement und die regulatorischen, administrativen Prozesse erneut zu durchlaufen. GMAI-(Generalist Medical Artificial Intelligence)-Modelle mit ihrer Anpassungsfähigkeit und ihrem Vorhersagepotenzial auch ohne zuvor für diese spezifischen Beispiele trainiert worden zu sein – dem sogenannten Zero Shot Reasoning – stellen daher eine Herausforderung für die Validierung und Zuverlässigkeitsbewertung dar. Sie sind derzeit von allen internationalen Regelungen ausgeschlossen.

  • Crashkurs Prompting: Wie nutze ich KI-Chatbots effizient?

Wie man in ChatGPT, Gemini und Co hineinschreibt, so schallt es heraus. Bestimmte Methoden und Tricks verbessern die Ausgabe solcher KI-Sprachmodelle. Hilft es, eine KI emotional unter Druck zu setzen? Braucht es künftig noch Prompt-Engineers?

Das hören Sie im Dlf-Podcast KI verstehen.

  • WHO: Neuer Leitfaden zum Einsatz großer KI-Modelle

Die Weltgesundheitsorganisation (WHO) hat neue Richtlinien zum Einsatz großer KI-Modelle im Gesundheitswesen veröffentlicht. Die steigende Verwendung multimodaler KI-Modelle in wissenschaftlicher Forschung, öffentlichem Gesundheitswesen und der Pharmaindustrie erfordert laut WHO ein „sicheres und wirksames“ Engagement aller Beteiligten.

Die WHO fordert, dass sich Regierungen, Technologieunternehmen, Gesundheitsdienstleister, Patienten und die Zivilgesellschaft für den sicheren Einsatz von KI im Gesundheitswesen engagieren. Dafür sollen verschiedene Interessengruppen in den Entwicklungsprozess von KI-Modellen frühzeitig zu Rate gezogen werden. 

Die aktuellen Richtlinien bauen auf den bereits 2021 von der WHO veröffentlichten Leitlinien zur Ethik und Governance im Einsatz von KI im Gesundheitswesen auf. Experten wurden zu Vorteilen und Risiken von KI-Modellen befragt, wobei mögliche Auswirkungen auf den Arbeitsmarkt, die Überschätzung der Systeme, KI-Bias und offene Fragen zur Datenqualität und Cybersicherheit als Risiken identifiziert worden sind.

  • AI Act: Regeln für KI innerhalb der EU

Laut ARD bezeichnet EU-Binnenmarktkommissar Thierry Breton die Vereinbarung zum „AI Act” als „historisch”. Denn die EU ist somit der allererste Kontinent, der für die Künstliche Intelligenz (KI | engl. AI = Artificial Intelligence) ein klares Regelwerk erstellt hat. Dadurch soll u.a. die Qualität der für die Entwicklung der Algorithmen verwendeten Daten gewährleistet und garantiert werden, dass bei der KI-Entwicklung keine Urheberrechte verletzt werden. 

Für „risikoreiche” Anwendungen gibt es strengere Auflagen, z. B. bei kritischer Infrastruktur, Sicherheitsbehörden und Personalverwaltung. Eine Kontrolle durch den Menschen über KI, eine technische Dokumentation und ein System zum Risikomanagement sind in diesen Bereichen verpflichtend. Was dann auch höchstwahrscheinlich für den medizinischen Sektor gelten wird.   

Eine Einordnung dazu von der Tagesschau (ca. 3 Minuten) zum Anhören.

Das Dekret von US-Präsident Biden, der Gipfel im Bletchley Park und Streit in der EU. Es tut sich etwas bei der KI-Regulierung. Aber die Frage besteht: Sind heutige Gefahren relevanter oder doch die Horrorszenarien von morgen? Ein Dlf-Beitrag aus der Podcast-Reihe KI verstehen.

 

Eine aktuelle Studie der „Mayo Clinic Proceedings: Digital Health“ präsentiert einen neuen Ansatz zur Erkennung von Typ-2-Diabetes: Unter Verwendung kurzer Sprachsamples (6 bis 10 Sekunden) zusammen mit grundlegenden Gesundheitsinformationen wie Alter und Gewicht, entwickelten Wissenschaftler ein KI-Modell, das ermitteln kann, ob eine Person an Typ-2-Diabetes leidet. Die Genauigkeit dieser Methode beträgt 89% bei Frauen und 86% bei Männern.

Diese Algorithmen durchsuchen die gesammelten Informationen dann nach Mustern, die auf das Vorhandensein von Diabetes deuten könnten. Wenn ein solches Muster ersichtlich wird, wird dem Smartphone-Nutzer empfohlen, weitere medizinische Tests unter Aufsicht von Medizinern durchzuführen. Dadurch soll ein Frühwarnsystem für Menschen angeboten werden, die unwissentlich mit der Krankheit leben könnten.

Eine Untersuchung zur Frage: Welches Arzneimittel-Molekül hat die beste Wirksamkeit?

Künstliche Intelligenz (KI) ist immer weiter auf dem Vormarsch. Bislang erschienen die Anwendungen häufig wie eine Black Box. Prof. Dr. Jürgen Bajorath, Chemieinformatiker an der Universität Bonn, hat mit seinem Team eine Methode entwickelt, die enthüllt, wie bestimmte KI-Anwendungen in der Arzneimittelforschung vorgehen. 

Die Ergebnisse mögen überraschen: Die KI-Programme erinnerten sich weitgehend an ihnen bekannte Daten und gingen in der Vorhersage von Arzneimittelwirksamkeiten kaum auf den Kern spezifischer chemischer Wechselwirkungen ein. Die Ergebnisse sind nun in “Nature Machine Intelligence” publiziert

Was bedeuten die Ergebnisse zur Anwendung dieser Graph Neuronalen Netze (GNN) für Arzneimittelstudien? GNN sollen zum Beispiel vorhersagen, wie stark ein bestimmtes Molekül an ein Zielprotein bindet. Dazu werden GNN-Modelle mit Graphen trainiert, die Komplexe von Proteinen und chemischen Verbindungen (Liganden) darstellen.

“Es ist generell nicht haltbar, dass die GNNs das chemische Zusammenspiel von Wirkstoffen und Proteinen lernen”, stellt Bajorath fest. Ihre Vorhersagen sind damit weitgehend überbewertet, weil Prognosen in ähnlicher Qualität mit chemischem Wissen und einfachen Methoden erstellt werden können. 

Allerdings gibt es auch hier weitere Ansätze für die KI. Zwei der untersuchten GNN-Modelle zeigten eine deutliche Tendenz, mehr Wechselwirkungen zu lernen, wenn die Wirksamkeit bekannter Wirkstoffe zunahm. “Hier lohnt es sich, noch genauer hinzusehen”, meint Bajorath. Vielleicht ließen sich diese GNNs durch modifizierte Trainingsmethoden weiter in die gewünschte Richtung verbessern. Allerdings müsse man bei der Annahme, dass physikalische Größen auf der Basis molekularer Graphen gelernt werden können, generell vorsichtig sein. 

Ein Dlf-Beitrag zum Thema, wie die KI bereits medizinische Aufgaben übernimmt, z. B. Diagnosen stellen, Röntgenbilder interpretieren, Hautkrebs erkennen. Sollte sie das aber auch? Mediziner:innen sehen viele Chancen, andere sehen nicht nur Vorteile und raten zur Vorsicht. 

Microsoft hat neue KI-Tools zur Auswertung von Daten aus Krankenhäusern und Google Cloud bietet eine „Vertex AI Search“ für Healthcare- und Life Science-Unternehmen an.

Obwohl sich künstliche Intelligenz rasant weiterentwickelt, gibt es bislang kaum Regeln und Grenzen für den Einsatz der Technologie. Vorreiter könnte der AI Act sein, den die EU bis Ende des Jahres beschließen will. Was regelt das europäische KI-Gesetz? Folge des Dlf-Podcast: KI verstehen.

Ein Beitrag (auf Englisch) vom Münchner Helmholtz Zentrum.

Medical AI can’t interpret complex cases yet. The arrival of multimodal large language models will start the real revolution – and real assistance.

 

Künstliche Intelligenz (KI) erlebt in der deutschen Wirtschaft einen spürbaren Schub. So zumindest ein Fazit einer Bitkom Umfrage.

 

The large language model's performance was steady across both primary and emergency care, and for all medical specialties, but struggled with differential diagnoses, according to new research by Mass General Brigham.

A limited group of Google Cloud clients, including health systems HCA and Mayo Clinic, have been testing the large language model since April in a variety of use cases.

Ein Beitrag von The Medical Futurist: Progress happens with breathtaking speed, and generative AI is the present, not the future anymore. 

Das findet die Ethikratsvorsitzende Alena Buyx. In einem Interview mit dem Tagesspiegel erklärt sie u.a. noch, was für eine bestmögliche medizinische KI nötig ist.

Deutschland und Europa sollen in einer Welt „Powered by AI“ eine Spitzenposition einnehmen und technologische KI-Souveränität erreichen. Das BMBF betrachte die Bereitstellung von KI-Tools, KI-Kompetenzen und KI-Infrastruktur als Teil der Grundversorgung. Mit dem KI-Aktionsplan sollen, als Update des BMBF-Beitrags zur KI-Strategie der Bundesregierung, die Rahmenbedingungen verbessert werden.

Künstliche Intelligenz kann die Gesundheitsversorgung verbessern. Etwa indem KI-basierte Apps bei Diagnose und Therapie helfen und Mediziner unterstützen, die optimale Behandlung zu finden. Aber noch ist die Technik nicht reif für die Praxis. Ein Beitrag vom Deutschlandfunk.

Künstliche Intelligenz revolutioniert unseren Alltag. Sie übersetzt Texte, filtert Nachrichten, analysiert Röntgenbilder und entscheidet, wer einen Job bekommt. Im Podcast „KI verstehen“ möchte der Deutschlandfunk jede Woche Antworten auf Fragen zum Umgang mit KI geben.

 

Chat-Tools wie ChatGPT oder MedPaLM von Google haben großes medizinisches Potenzial, ihre unregulierte Verwendung im Gesundheitswesen birgt jedoch Risiken, findet Prof. Stephen Gilbert.

 

ChatGPT – als Vorreiter für KI-Tools im medizinischen Bereich – setzt an vielen Stellen an und wird die gesamte Gesundheitsbranche strukturell verändern. Diese strukturellen Veränderungen wirken sich unweigerlich auch auf das Pharma-Marketing aus. Eingeschätzt von Thomas Hagemeijer, Healthcare Lead bei TLGG Consulting

 

Der Artikel greift diese beiden Punkte auf: 

  • Was das neue KI-Gesetz beinhaltet
  • AI Act soll Künstliche Intelligenz fördern und Grundrechte schützen

 

 

Weiterhin dominierend in den Diskussionen: ChatGPT und KI. Doch wie sieht es mit dem Pharmamarketing aus? Der PM—Report hat bei Healthcare Expert:innen nachgefragt.

 

ChatGPT hat nach dem Release im November 2022 in nur einer Woche 1 Million User erreicht. Seither hat sich diese Zahl verhundertfacht. Doch die Konkurrenz ist nicht weit, Riesen wie Google sind sofort auf das Thema aufgesprungen.

OpenAI konnte sich zwar mit ChatGPT den First-Mover Advantage sichern, doch um langfristig am Markt zu bestehen, muss auch das Marketing sitzen. Aber genau hier zeigen sich Schwächen von ChatGPT. Es ist also nicht ganz unwahrscheinlich, dass ChatGPT von den Konkurrenten überholt werden könnte.

In dieser Neuromarketing-Studie von Zutt & Partner zeigt sich, was es dafür braucht.

 

 

 

Das Europäische Parlament hat den Artificial Intelligence Act (AIA) verabschiedet. „Die Vorschriften sollen dafür sorgen, dass in der EU entwickelte und eingesetzte KI in vollem Umfang den Rechten und Werten der Europäischen Union entspricht. Das umfasst, dass sie von Menschen beaufsichtigt wird, Anforderungen an Sicherheit, Datenschutz und Transparenz genügt, niemanden diskriminiert und weder Gesellschaft noch Umwelt schädigt“, heißt es zum Ziel.

KI-Anwendungen werden nun in bestimmte Risikoklassen eingestuft. So geltens KI-Systeme als Hochrisiko-Anwendungen, die die Gesundheit, die Sicherheit und die Grundrechte von Menschen bzw. die Umwelt erheblich gefährden. In die entsprechende Liste wurden KI-Systeme aufgenommen, die zur Beeinflussung von Wählern und Wahlergebnissen sowie in Empfehlungssystemen von Social-Media-Plattformen (mit mehr als 45 Millionen Nutzern) eingesetzt werden.

Mitberichterstatter Brando Benifei (S&D, Italien) erklärte nach der Abstimmung: „… Wir wollen, dass das positive Potenzial der KI für Kreativität und Produktivität genutzt wird, aber wir werden auch unsere Standpunkte verteidigen und jegliche Bedrohungen für unsere Demokratien und Freiheiten im Zuge der Verhandlungen mit dem Rat abwehren.“

Bitkom findet: „Wichtig ist, dass für Generative KI im AI Act Klarheit und Rechtssicherheit geschaffen wird, und zwar mit Vorgaben, die in der Praxis auch funktionieren. Grundsätzlich sollten die EU und die Mitgliedstaaten nicht nur abstrakte Regeln schaffen, sondern auch die richtigen Rahmenbedingungen für die erfolgreiche Entwicklung von KI und für eine praxisnahe Umsetzung der Regulierung. Zur Umsetzung des AI Acts braucht man Aufsichts- und Marktüberwachungsstrukturen ebenso wie Reallabore als Experimentier-Räume, die Unternehmen helfen, die Regulierung praxisnah und pragmatisch umzusetzen. Wir dürfen denen, die KI in Europa voranbringen wollen, keine Steine in den Weg legen. Der AI Act darf kein KI-Verhinderungs-Act werden, er muss ein KI-Beschleunigungs-Act werden. Ziel muss sein, dass die Menschen und Unternehmen in der EU die Vorteile von KI erleben und umfassend nutzen können.“

  • EU-Gesetz zum Einsatz von KI: Mit der Regulierung verhindern wir Schlimmes

Tagesschau-Interview mit Paul Lukowicz, Wissenschaftlicher Direktor und Leiter des Forschungsbereichs Eingebettete Intelligenz am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und Lehrstuhlinhaber im Fachbereich Informatik der Technischen Universität Kaiserslautern.

Generative Künstliche Intelligenz (KI) ist derzeit weltweit auf dem Vormarsch. Wenn es Ihnen so geht wie mir, dann haben Sie sich die KI sicher auch schon zunutze gemacht und ihre Fähigkeiten genauer unter die Lupe genommen. Ein Blogeintrag von Hays CEO Alistair Cox.

  • Dazu: Einer Bitkom Umfrage zufolge haben bereits 37% der unter 16- bis 29-Jährigen ChatGPT ausprobiert, bei den 30- bis 49-Jährigen sind es 20%, bei den 50- bis 64-Jährigen 18%, bei den 65- bis 74-Jährigen noch 12% und 2% bei den ab 75-Jährigen. 67% erwarten, dass ChatGPT & Co. unser Leben verändern werden. 61% wünschen sich, dass mehr Wissen über KI-Anwendungen wie ChatGPT vermittelt wird, weil diese künftig zum Alltag gehören werden. Und jeweils rund die Hälfte meint, dass KI eine große Chance für mehr digitale Teilhabe ist (50%) und es leichter macht, das Internet zu bedienen (49%).

    Bitkom-Präsident Achim Berg meint: „Wir erleben gerade, wie Künstliche Intelligenz in unseren beruflichen und privaten Alltag einzieht. Viele Aufgaben werden sich künftig mit KI-Unterstützung einfacher, schneller und besser erledigen lassen. Deshalb müssen wir heute damit anfangen, jede und jeden dazu zu befähigen, diese Technologien einsetzen zu können.“

 

Das Pilotprojekt IKAPP des Uniklinikums Schleswig-Holstein soll wichtige Daten zusammenführen, die für die Infektionskontrolle von Atemwegsinfektionen bereits erhoben und systematisch ausgewertet werden könnten. So erheben beispielsweise Schulen, Gesundheitsämter, niedergelassene Ärztinnen und Ärzte, Notaufnahmen der Kliniken oder auch große Labore diese Daten. Die Forschenden am Campus Lübeck wollen sie im kommenden Herbst/Winter 2023/24 nutzen, um sie in einen KI-basierten Auswertealgorithmus zu integrieren.

 

Künstliche Intelligenz ist spätestens mit ChatGPT im Alltag angekommen und wird auch den Arbeitsmarkt verändern. Manche Jobs werden sich durch KI stark wandeln, andere vielleicht sogar verschwinden. Wie sieht die Arbeitswelt der Zukunft aus?

 

KI wird bei der Erkennung von Augenkrankheiten oder Hautkrebs schon eingesetzt und kann bei kleineren Verschlechterungen rechtzeitig Alarm schlagen. ChatGTP könnte dem Arzt mehr Administration abnehmen, so Patrick Rockenschraub vom Fraunhofer-Institut im Interview mit dem Deutschlandfunk.

 

 

Bei der Entwicklung Künstlicher Intelligenz hat der US-Konzern Google ein Konkurrenzprodukt zu ChatGPT gestartet. Ein Beitrag vom Deutschlandfunk.

 

 

In den vergangenen Monaten wurden wir regelmäßig gefragt, was das Aufkommen großer Sprachmodelle (LLMs) wie ChatGPT für Ada und das Gesundheitswesen im weiteren Sinne bedeutet. Und wie schneiden generative KI-Plattformen im Vergleich zu den bereits im Gesundheitswesen eingesetzten KI-Lösungen wie Ada ab und wie könnten sie in Zukunft in das Ökosystem passen?

 

  • Große Sprachmodelle: Wie disruptiv sind ChatGPT & Co.?

Das Sprachmodell ChatGPT hat Künstliche Intelligenz in die Mitte der Gesellschaft katapultiert. Die neue Generation von KI-Sprachassistenten antwortet ausführlich auf komplexe Fragen, verfasst Aufsätze und sogar Gedichte oder programmiert Codes. Sie wird als Durchbruch der KI-Entwicklung gefeiert. Ob in Unternehmen, der Medizin oder der Medienwelt – die Einsatzmöglichkeiten großer Sprachmodelle sind vielfältig. Was ist dran an dem Hype? Wie werden große Sprachmodelle wie ChatGPT unser Leben verändern? Und welche ethischen, rechtlichen und gesellschaftlichen Herausforderungen sind mit ihrem Einsatz verbunden? Expert:innen der Plattform Lernende Systeme ordnen ein.

 

  • Veränderst Du wirklich die Welt, ChatGPT?

Seit Wochen wird über den Chatbot „ChatGPT“ debattiert: Was taugen die Texte, die er ausspuckt? Kann er bald auch Kunst und Kultur? Zusammen mit dem Informatik-Professor Robert Lieck sprechen wir über sechs Wochen Hype und wie viel dahintersteckt.

 

  • Wie KI und ChatGPT Gesundheitswesen und Wirtschaft verändern

Künstliche Intelligenz (KI) und ChatGPT transformieren Wissenschaft, Wirtschaft, Gesundheitswesen und Gesellschaft, wie ein neuer Bericht von Accenture aufzeigt. Die Veränderungen können sich positiv auf die menschliche Kreativität und Produktivität auswirken.

 

  • ChatGPT und die Folgen

Paradies oder Verderben: Wohin wird uns Künstliche Intelligenz wie der Bot ChatGPT führen? Der Politologe Bijan Moini plädiert dafür, sowohl utopisch als auch dystopisch zu denken – um auf alles vorbereitet zu sein und notfalls Konsequenzen ziehen zu können.

Die weitere Entwicklung wird sehr schnell gehen: Im Paradies nehmen uns ChatGPTs Nachkommen lästige Arbeit ab, erschaffen für ein paar Cent spannende Unterhaltung, ergänzen oder ersetzen teure Dienstleistungen in der Medizin oder dem Recht, verhindern Straftaten oder erfinden gar selbst neue Technologien.

Die neueste Version des Chatbots besteht die Standard-Anwaltsprüfung in den USA besser als 90 Prozent der Prüflinge, kann auf Grundlage einer bloßen Zeichnung eine ganze Website programmieren und nach einem Blick in den Kühlschrank einen Vorschlag für das Abendessen machen. Und das alles und noch viel mehr im Jahr eins seiner Existenz. Die weitere Entwicklung wird jetzt sehr, sehr schnell gehen.

 

  • Kommentar zu ChatGPT

Der Sieg der Laien über das Expertentum: Das Internet hat das Wissen demokratisiert. Alle können sich öffentlich zu allem äußern. Expertinnen und Experten finden nun schwerer Aufmerksamkeit. Chatbots werden diese Entwicklung verstärken, prognostiziert der Medienphilosoph Roberto Simanowski.

 

  • Warum KI-Systeme präziser überprüft werden müssen

KI-Systeme sollten sorgfältiger und transparenter überprüft werden, das fordern Informatiker aus aller Welt im Fachmagazin „Science“. Gravierende Fehler würden oft nicht erkannt, weil die Evaluation zu wenig ins Detail gehe.

 

  • Kommentar zum Einsatz von KI

ChatGPT und Co. müssen Grenzen gesetzt werden: Künstliche Intelligenz kann mittlerweile viel, eins aber nicht: Verantwortung für ihr Handeln übernehmen. Deswegen müssen dringend gesetzliche Regelungen für KI gefunden werden, fordert der Journalist Falk Steiner.

 

 

  • Künstliche Intelligenz in der Medizin

Wie Technik das Verhältnis von Arzt und Patient wandelt: KI könnte künftig bis zu 20 Prozent der ärztlichen Aufgaben übernehmen. Das könnte dazu führen, dass wir die beste Medizin bekommen, die wir je hatten. Oder: Die digitalen Systeme führen zu einer wachsenden Entmenschlichung von Medizin und Pflege.

 

  • DDG-Tagung 2023: Nicht-invasive Diagnostik und Künstliche Intelligenz bei Hauttumoren

Die Früherkennung von Hautkrebs kann durch den Einsatz nicht-invasiver Diagnostik noch weiter verbessert werden. Mit modernen Bildgebungstechniken und künstlicher Intelligenz (KI) können Malignome der Haut und deren Vorstufen früh erkannt und zudem unnötige Exzisionen benigner Hautläsionen reduziert werden.

 

  • Krebsforschung: Weniger Strahlenbelastung durch künstliche Intelligenz

PET-Scanner sind sehr hilfreich, um Krebszellen im Körper aufzuspüren, aber sie funktionieren nur, wenn den Patienten ein radioaktives Marker-Molekül verabreicht wird. Dessen Dosis und damit die Strahlenbelastung können britische Forscher jetzt mithilfe einer künstlichen Intelligenz reduzieren.

 

  • Pharmaforschung: Künstliche Intelligenz löst Protein-Puzzle

Die britische Firma DeepMind, eine Google-Tochter, meldete kürzlich einen Durchbruch: Mit Hilfe künstlicher Intelligenz kann das Unternehmen die Struktur komplexer Proteine präzise berechnen. Für die Entwicklung neuer Medikamente wäre das ein Meilenstein – aber noch sind Fragen offen.

 

  • Algorithmen in der Medizin: Wenn Computer besser diagnostizieren als Ärzte

In China soll ein Algorithmus Corona-Infektionen erkennen können. Krebs kann von Computern zum Teil treffsicherer diagnostiziert werden, als von manchem Mediziner. Riesige Sammlungen von Datenmengen machen es möglich. Doch Big Data und Künstliche Intelligenz in der Medizin bergen auch Risiken.

 

  • Künstliche Intelligenz: Wie maschinelles Lernen die Medizin unterstützen kann

In Essen findet derzeit eine Konferenz über Künstliche Intelligenz in der Medizin (ETIM) statt. Ärzte setzen große Hoffnungen in die KI. Kritiker hingegen sehen die Gefahr einer Entmenschlichung in der Medizin. Dlf-IT-Experte Maximilian Schönherr sieht viele Vorteile – nicht nur in der Pflege.

 

  • KI in der Medizin: Der menschliche Körper in 3D

3D-Modelle, die den menschlichen Körper möglichst originalgetreu nachbilden: Solche Phantome sollen dabei helfen, die Strahlung in der Krebstherapie präziser zu berechnen, um individueller dosieren und die Belastung verringern zu können. Doch nicht nur Krebspatienten profitieren vom Computerkörper.

 

Forscher arbeiten daran, einfachere Methoden für die Früherkennung von Alzheimer zu entwickeln. Infrage kommen dabei Blutanalysen und eine Künstliche Intelligenz, die bei der Diagnose helfen soll. Allerdings sind auf dem Weg dahin noch einige Hindernisse zu überwinden.

 

  • The New Healthcare Economy: Why Pharma Marketers Need AI Now

Ein eBook (auf Englisch) zu dem Thema von AllazoHealth. Zum Herunterladen nach Angabe von einigen Daten.

Diese Punkte werden behandelt:

  • Learn how The New Healthcare Economy is redefining patient engagement
  • Discover how pharma marketers are realizing their omni-channel marketing objectives with AI-driven predictive analytics and personalization at the individual patient level
  • See how a leading pharmaceutical company leveraged AI to increase its patients’ length of therapy by nearly 15% and boosted first fill rates by nearly 10%

 

Erhalten Sie jetzt uneingeschränkten Zugriff auf alle interessanten Artikel.
  • Online-Zugriff auf das PM-Report Heftarchiv
  • Aktuelle News zu Gesundheitspolitik, Pharmamarketing und alle relevanten Themen
  • 11 Ausgaben des PM-Report pro Jahr inkl. Specials
Mehr erfahren