Zusammenfassung
Künstliche Intelligenz (KI) wird in der Gesundheitsversorgung seit einiger Zeit zur Risikoerkennung, Diagnostik, Dokumentation, Edukation und Training und anderen Zwecken genutzt. Neu ist als Open-KI-Applikation das Programm ChatGPT, das für jede Person zugänglich ist. Die Anwendung von ChatGPT als KI in der Ausbildung, Weiterbildung oder im Studium wird aktuell aus vielen Perspektiven diskutiert. Dabei ist offen, ob ChatGPT auch in Pflegefachberufen unterstützen kann und sollte. Ziel dieses Übersichtsartikels ist es, mögliche Einsatzgebiete von ChatGPT in Theorie und Praxis der Pflege zu den Schwerpunkten Pflegepädagogik, Pflegeforschung und Pflegeentwicklung aufzuzeigen und kritisch zu diskutieren.
Abstract
Artificial intelligence (AI) has been used in healthcare for some years for risk detection, diagnostics, documentation, education and training and other purposes. A new open AI application is ChatGPT, which is accessible to everyone. The application of ChatGPT as AI in education, training or studies is currently being discussed from many perspectives. It is questionable whether ChatGPT can and should also support nursing professions in health care. The aim of this review article is to show and critically discuss possible areas of application of ChatGPT in theory and practice with a focus on nursing practice, pedagogy, nursing research and nursing development.
Explore related subjects
Discover the latest articles, news and stories from top researchers in related subjects.Literatur
Biswas S (2023) ChatGPT and the future of medical writing. Radiology 307(2):e223312. https://doi.org/10.1148/radiol.223312
Buchanan C, Howitt ML, Wilson R et al (2020) Predicted influences of artificial intelligence on the domains of nursing: scoping review. JMIR Nurs 3:e23939
Chatterjee J, Dethlefs N (2023) This new conversational AI model can be your friend, philosopher, and guide … and even your worst enemy. Patterns 4:100676
Curtis N (2023) To chatGPT or not to chatGPT? The impact of artificial intelligence on academic publishing. Pediatr Infect Dis J 42(4):275. https://doi.org/10.1097/INF.0000000000003852
D’amico RS, White TG, Shah HA et al (2023) I asked a ChatGPT to write an editorial about how we can incorporate Chatbots into neurosurgical research and patient care. Neurosurgery 92(4):663–664
Donabedian A (1996) The effectiveness of quality assurance. Int J Qual Health Care 8:401–407
Donabedian A (1988) The quality of care. How can it be assessed? JAMA 260:1743–1748
Donato H, Escada P, Villanueva T (2023) The transparency of science with ChatGPT and the emerging artificial intelligence language models: where should medical journals stand? Acta Med Port 36(3):147–148
Ebrahimian S, Digumarthy SR, Bizzo B et al (2022) Artificial intelligence has similar performance to subjective assessment of emphysema severity on chest CT. Acad Radiol 29:1189–1195
Else H (2023) Abstracts written by ChatGPT fool scientists. Nature 613:423
Gilson A, Safranek CW, Huang T et al (2023) How does ChatGPT perform on the United States medical licensing examination? The implications of large language models for medical education and knowledge assessment. JMIR Med Educ 9:e45312
Gordijn B, Have HT (2023) ChatGPT: evolution or revolution? Med Health Care Philos 26(1):1–2
Graham F (2023) Daily briefing: ChatGPT listed as author on research papers. Nature. https://doi.org/10.1038/d41586-023-00188-w
Gusenbauer M, Haddaway NR (2020) Which academic search systems are suitable for systematic reviews or meta-analyses? Evaluating retrieval qualities of Google Scholar, PubMed, and 26 other resources. Res Synth Methods 11:181–217
Han JW, Park J, Lee H (2022) Analysis of the effect of an artificial intelligence chatbot educational program on non-face-to-face classes: a quasi-experimental study. BMC Med Educ 22:830
Hasty RT, Garbalosa RC, Barbato VA et al (2014) Wikipedia vs peer-reviewed medical literature for information about the 10 most costly medical conditions. J Am Osteopath Assoc 114:368–373
Huh S (2023) Are ChatGPT’s knowledge and interpretation ability comparable to those of medical students in Korea for taking a parasitology examination?: a descriptive study. J Educ Eval Health Prof 20:1
King MR (2023) A conversation on artificial intelligence, chatbots, and plagiarism in higher education. Cell Mol Bioeng 16:1–2
Liebrenz M, Schleifer R, Buadze A et al (2023) Generating scholarly content with ChatGPT: ethical challenges for medical publishing. Lancet Digit Health 5(3):e105–e106
Liu Y, Shen W, Tian Z (2023) Using machine learning algorithms to predict high-risk factors for postoperative delirium in elderly patients. Clin Interv Aging 18:157–168
Mash R, Schouw D, Fischer AE (2022) Evaluating the implementation of the GREAT4diabetes whatsapp Chatbot to educate people with type 2 diabetes during the COVID-19 pandemic: convergent mixed methods study. JMIR Diabetes 7:e37882
Mogali SR (2023) Initial impressions of ChatGPT for anatomy education. Anat Sci Educ. https://doi.org/10.1002/ase.2261
Oelke U, Meyer H (2014) Didaktik und Methodik für Lehrende in Pflege- und Gesundheitsberufen. Cornelsen, Berlin
Patel SB, Lam K (2023) ChatGPT: the future of discharge summaries? Lancet Digit Health 5(3):e107–e108
Pflaprv. (2018) Pflegeberufe-Ausbildungs- und -Prüfungsverordnung (PflAPrV) vom 2. Oktober 2018 (BGBl. I S. 1572), die durch Artikel 10 des Gesetzes vom 19. Mai 2020 (BGBl. I S. 1018) geändert worden ist. In:
Pham KT, Nabizadeh A, Selek S (2022) Artificial intelligence and Chatbots in psychiatry. Psychiatr Q 93:249–253
Rahner M, Krüger L, Aumiller M et al (2022) Evidence-based decision-making in nursing—development and piloting of a train-the-trainer concept for teachers at schools for health care professionals: a pilot study. Z Evid Fortbild Qual Gesundhwes 175:81–88
Stokel-Walker C (2022) AI bot ChatGPT writes smart essays—should professors worry? Nature. https://doi.org/10.1038/d41586-022-04397-7
Stokel-Walker C (2023) ChatGPT listed as author on research papers: many scientists disapprove. Nature 613:620–621
Thorp HH (2023) ChatGPT is fun, but not an author. Science 379:313
Tl B, Jf C (2009) Principles of biomedical ethics. Oxford University Press, New York
Tran WT, Sadeghi-Naini A, Lu FI et al (2021) Computational radiology in breast cancer screening and diagnosis using artificial intelligence. Can Assoc Radiol J 72:98–108
Von Gerich H, Moen H, Block LJ et al (2022) Artificial intelligence-based technologies in nursing: a scoping literature review of the evidence. Int J Nurs Stud 127:104153
Yam EA, Namukonda E, Mcclair T et al (2022) Developing and testing a Chatbot to integrate HIV education into family planning clinic waiting areas in Lusaka, Zambia. Glob Health Sci Pract 10(5):e2100721. https://doi.org/10.9745/GHSP-D-21-00721
Yeo-Teh NSL, Tang BL (2023) Letter to Editor: NLP systems such as ChatGPT cannot be listed as an author because these cannot fulfill widely adopted authorship criteria. Account Res. https://doi.org/10.1080/08989621.2023.2177160
Förderung
Diese Forschung erhielt keine spezifischen Zuschüsse von Förderstellen in den Bereichen öffentliche, kommerzielle oder gemeinnützige Zwecke.
Author information
Authors and Affiliations
Consortia
Corresponding author
Ethics declarations
Interessenkonflikt
L. Krüger, S. Krotsetis und P. Nydahl geben an, dass kein Interessenkonflikt besteht.
Diese Übersichtsarbeit wurde im Einklang mit nationalem Recht sowie gemäß der Deklaration von Helsinki von 1975 (in der aktuellen, überarbeiteten Fassung) durchgeführt.
Additional information
Redaktion
Michael Buerke, Siegen
Hinweis
Dieses Manuskript war auch ein Test, um herauszufinden, wie Editoren und Reviewer auf ChatGPT („Generative Pre-trained Transformer“, Fa. OpenAI, San Francisco) und das Thema KI reagieren würden. Würde ChatGPT als Koautor abgelehnt? Würde das Manuskript zu ernsthaften ethischen oder wissenschaftlichen Bedenken führen? Im Ergebnis reagierten die Editoren mit Akzeptanz des Manuskripts sowie Akzeptanz von ChatGPT als Koautor. Auch die Reviewer akzeptierten ChatGPT als Koautor. Die Reviewer gaben die Empfehlung, dass das Thema KI mit den damit verbundenen Möglichkeiten und Grenzen weiter diskutiert werden sollte. Schlussendlich haben wir ChatGPT selbstverständlich auch für das Review-Verfahren eingesetzt: Die Anmerkungen der Reviewer, die sich auf Textpassagen bezogen, die von ChatGPT geschrieben worden sind, wurden auch von ChatGPT beantwortet und das Manuskript dahingehend revidiert.
Die Autoren Lars Krüger und Susanne Krotsetis haben zu gleichen Teilen zum Manuskript beigetragen und sind Koerstautoren.
QR-Code scannen & Beitrag online lesen
Rights and permissions
About this article
Cite this article
Krüger, L., Krotsetis, S., OpenAI’s Generative Pretrained Transformer 3 (GPT-3) Model. et al. ChatGPT: Fluch oder Segen in der Pflege?. Med Klin Intensivmed Notfmed 118, 534–539 (2023). https://doi.org/10.1007/s00063-023-01038-3
Received:
Revised:
Accepted:
Published:
Issue Date:
DOI: https://doi.org/10.1007/s00063-023-01038-3