> Modalitäten > Reflexion > Wissenschaftliches Arbeiten und KI – Ein Fallbeispiel
Wissenschaftliches Arbeiten und KI – Ein Fallbeispiel
Generative Künstliche Intelligenz (KI) ist seit der Veröffentlichung von ChatGPT3 im November 2022 zu einem sehr wichtigen Thema für Lehrende und Studierende geworden (z. B. Gimpel et al., 2023). Unter generativer KI verstehen Lim et al. (2023, S.10) „a technology that leverages deep learning models to generate human-like content in response to complex and varied prompts.“ Auf der Basis von Deep-Learning-Modellen erstellen generative KIs (wie ChatGPT) unterschiedlichste Inhalte (wie Texte oder Bilder), die auf statistischen Berechnungen großer unstrukturierter Datenmengen basieren. Diese Inhalte zeichnen sich teilweise durch hohe Qualität und Komplexität aus, sodass sie auch mit menschlicher Arbeit verwechselt werden können.
Chancen und Risiken
Angesichts dessen birgt generative KI ein hohes disruptives Potenzial (Schön et al., 2023), das verschiedene Chancen, aber auch Risiken für das Studium birgt.
Chancen werden unter anderem in neuen Unterstützungsformaten gesehen, in denen Textgeneratoren wie ChatGPT, Studierenden als Study Buddy oder als 24/7-Betreuung dienen (Michel-Villarreal et al., 2023, Gimpel et al., 2023). Ferner kann generative KI eingesetzt werden, um kreatives Denken anzuregen, Quellen zusammenzufassen, Prüfungs- oder Quizfragen zu erstellen, Texte zu übersetzen oder Rechtschreib- und Grammatikfehler zu korrigieren (Girgensohn et al., 2023).
Demgegenüber gibt es einige Risiken. Eines der größten Probleme des KI-gestützten Lernens wird vor allem in Missbrauchspotenzialen und Täuschungsversuchen gesehen, bei denen Studierende generierte Texte als ihre eigene Arbeit ausgeben, ohne dies zu kennzeichnen. Diese Problematik wird dadurch verstärkt, dass KI-gestützte Texte nicht als Plagiate erkannt werden können und somit die Möglichkeiten der Überprüfung fehlen (Eke, 2023, Watanabe, 2023, Zhai, 2022) – ungerechte Bewertungen und soziale Konflikte können eine Folge sein. Auch die technischen Grenzen der generativen KI bergen Risiken, denn sie können einerseits – als Ergebnis Statistik-basierter Aneinanderreihung von Worten – völlige Fehlinformationen verbreiten und es andererseits unmöglich machen, Entscheidungen und verwendete Quellen einzusehen oder zu überprüfen (Herzberg, 2023, Li, 2023, Lo, 2023). Selbst in den neueren Modellen, welche teilweise Quellen angeben, können die Inhalte daraus noch falsch zusammenhalluziniert sein. Überdies gibt es weitere, sehr unterschiedliche Risiken, die sich z.B. auf ethische und rechtliche Probleme beziehen. Themen sind hier beispielsweise mangelnder Datenschutz für die Nutzer:innen (Alshater, 2020), die Abhängigkeit von großen Unternehmen (Fecher et al., 2023) (z. B. OpenAI, Google), der Verlust von Autonomie (Watanabe, in Press[AW1] ) oder ein potenzielles Deskilling von Studierenden (Reinmann, 2023). Neben diesen Risiken wird auch die Befürchtung geäußert, dass der zunehmende Einsatz von KI-Tools und KI-Betreuung zu einem Rückgang des zwischenmenschlichen Austauschs zwischen Lehrenden und Lernenden führen könnte (Watanabe, 2023).
Dieser kurze Problemaufriss verdeutlicht die Komplexität des Themas und wirft die Frage auf, inwiefern KI im wissenschaftlichen Arbeiten gewinnbringend, legal und möglichst ohne Verluste eingesetzt werden kann. Die Frage stellt sich auch, weil Studierende derzeit sehr unsicher in Bezug auf den Einsatz von KI in der Hochschullehre sind und das Vertrauensverhältnis zwischen Lehrenden und Lehrenden negativ beeinflusst wird (Preiß et al. 2023). Um dieser aktuellen Situation entgegenzuwirken, gibt es bereits KI-Leitfäden (z.B. Gimpel et al., 2023), die eine erste Orientierung für die KI-gestützte Lehre geben. Diese sind jedoch oft sehr allgemein gehalten und sollten mit dem Lehrenden diskutiert werden. Überdies ist es wichtig, dass Studierende sich mit den Möglichkeiten und Grenzen der verschiedenen KI-Tools auseinandersetzen, um sie gewinnbringend im wissenschaftlichen Arbeiten einsetzen zu können. Dabei geht es vor allem darum, dass Studierende nicht nur mit ChatGPT operieren, sondern auch andere Tools als Hilfsmittel nutzen, die ihnen nicht die Hauptarbeiten (z. B. das Schreiben eines Textes abnehmen), sondern punktuelle Hilfsmittel und Arbeitserleichterungen darstellen. Anhand eines Fallbeispiels werden diese Überlegungen veranschaulicht:
Fallbeispiel
Die Studentin Lucy führt eine Forschungsarbeit im Bereich der Soziologie durch und fragt sich in diesem Zusammenhang, wie sie generative KI sinnvoll einbinden und von möglichen Vorteilen profitieren kann, ohne sich wissenschaftlichen Fehlverhaltens schuldig zu machen. Um nicht in Versuchung zu geraten, entscheidet sie sich, ChatGPT nicht für die Textproduktion zu verwenden und macht sich stattdessen auf die Suche nach anderen KI-Tools, die sie bei ihrer wissenschaftlichen Arbeit unterstützen können. Dabei beschließt Lucy, für die unterschiedlichen Forschungsphasen verschiedene KI-Tools zu verwenden.
Wie bei jeder wissenschaftlichen Arbeit steht zunächst die Erarbeitung des Forschungsfeldes und einer geeigneten Forschungsfrage im Mittelpunkt. Dabei helfen ihr einerseits die Grundlagenliteratur aus dem Seminar und andererseits Datenbanken, Bibliothekskataloge und Online-Zeitschriften. Darüber hinaus entscheidet sich Lucy für den Einsatz von KI-gestützten Recherchetools, um beispielsweise ausgehend von einem Ausgangsartikel nach ähnlichen Texten zu suchen, sich Artikel zusammenfassen zu lassen oder mithilfe von KI-Sprachmodellen nicht verstandene Passagen zu klären. Diese stellen eine gute Ergänzung zur klassischen Literaturanalyse dar und zeigen Lucy, inwiefern sich die verschiedenen Praxisbeispiele aufeinander beziehen. Ebenso helfen Lucy Übersetzungstools, englischsprachige Texte besser zu verstehen und ihre Literaturrecherche zu erweitern.
Nach der Literaturrecherche muss sich Lucy überlegen, welche Methode für ihre Forschung am besten geeignet ist. Sie entscheidet sich für das problemzentrierte Interview und arbeitet sich mithilfe von Primärquellen in die Methodik ein. Textpassagen, die sie nicht versteht, „bespricht“ sie zunächst mit ChatGPT und versucht sich so die Themen zu erschließen. Um sicherzugehen, dass die generative KI die Sachverhalte richtig dargestellt hat, diskutiert sie die unklaren Stellen und Antworten der KI danach mit anderen Studierenden und ihrer Dozentin.
Anschließend entwickelt Lucy ihr Forschungsdesign und beginnt auf dieser Grundlage mit der Durchführung der Interviews. Während ihr die Interviews an sich viel Spaß machen, ist die Transkriptionsarbeit eher mühsam und zeitaufwendig. Hier bietet sich der Einsatz von generativer KI an, mit der Lucy auf Knopfdruck eine erste Transkription erhält, die sie dann nur noch einmal überprüfen und verfeinern muss. Wichtig ist jedoch, dass alle Daten anonymisiert werden und die Befragten vorab ihr Einverständnis gegeben haben, dass die Interviews von einer generativen KI transkribiert werden. Lucy regelt dies über die Einverständniserklärung und spricht dies auch im persönlichen Gespräch mit den Interviewpartner:innen an.
Lucy verwendet KI auch während des Schreibprozesses, lehnt es aber ab, ChatGPT Textfragmente generieren zu lassen, um nicht in Versuchung zu geraten, den generierten Text zu übernehmen. Stattdessen schreibt sie ihren Text zuerst und setzt dann KI-Tools gezielt ein, um mögliche Sätze stilistisch zu verbessern und Grammatik- und Rechtschreibfehler zu finden. Sie kontrolliert die „verschönerten“ Absätze aber noch mal genau, weil sie weiß, dass es generativer KI auf die Kohärenz des Satzes, nicht aber auf den Inhalt ankommt und dadurch schnell inhaltliche Fehler entstehen können.
Zum Abschluss des Kurses stellt Lucy ihre erarbeiteten Ergebnisse in einer Präsentation vor. Auch hier nutzt sie die KI, um z. B. passende Bilder zu erstellen oder Flüchtigkeitsfehler in ihrer Präsentation zu korrigieren.
Das Fallbeispiel veranschaulicht, wie KI im wissenschaftlichen Arbeiten eingesetzt werden kann, ohne dass die Eigenverantwortung der Studierenden verloren geht. Auf der Seite E-teaching.org unter Forschendes Lernen: Einsatz digitaler Medien, bei einer Ressourcen-Seite von VK-KIVA und auf dem Google Dokument AI Tools for Academia können Studierende konkrete Tools einsehen, die in den verschiedenen Phasen eines Forschungsprozesses bzw. beim wissenschaftlichen Arbeiten eingesetzt werden können. Grundsätzlich ist es jedoch wichtig, die Tools immer kritisch zu hinterfragen, die Datenschutzbestimmungen vor der Nutzung genau zu lesen und mit den Lehrenden zu besprechen, ob der Einsatz dieser Tools für sie ein Problem darstellt.
Ressourcen
INHALT
THEMENBEREICH REFLEXION:
SCHLAGWORTE:
CREDITS:
DOI:
In Erstellung
VERSION:
1.0.0.
ZITIEREN ALS:
Watanabe Alice, Preiß Jennifer. (2023). Wissenschaftliches Arbeiten und KI – Ein Fallbeispiel. http://doi.org/ – in Erstellung