#.$%$& Künstliche Intelligenz Forschung Prompt aus. Manche gehen so weit, eine bestimmte Struktur für diese Abfolge vorzugeben, was als Structured Chain of Thought (SCoT) bezeichnet wird. Für einige Bereiche kann sich dieser Pro- zess bis zu einem guten Prompt auszahlen, etwa, wenn man sta- tistisches Verständnis hat, aber zum ersten Mal das Programm R anstatt SPSS ausprobieren möchte. Um CoT- oder SCoT-Prompts zu schreiben, braucht es nicht nur eine konkrete Vorstellung, welche Aufgabe genau übernommen werden soll, sondern auch ein inhaltliches Verständnis. Am Ende ist es wichtig, selbst beur- teilen zu können, ob der Output richtig ist und qualitativ für den Anwendungszweck ausreicht, denn: Generative KI macht nach wie vor Fehler! Generative KI in der Wissenschaft: Darauf sollten Forschende achten Setzt man Generative KI ein, ist nicht nur das Ergebnis entschei- dend, es spielen auch ethische Aspekte und Datenschutzfragen eine Rolle. Allein in der Forschung gibt es eine Vielzahl von mög- lichen Anwendungsfällen. Bei fast allen besteht das Problem der Replizierbarkeit, die Frage nach der eigenen Leistung und die Sorge, dass innovative Ideen weitergegeben werden. Einige Modelle eignen sich besser für bestimmte Aufgaben; so verfü- gen unter anderem OpenAI, Mistral oder DeepSeek über spezi- elle Varianten, die durch weiteres Training auf Programmcode- Generierung spezialisiert sind. Möchte man also eine spezifische Aufgabe lösen, die über Textgenerierung hinausgeht, lohnt es sich, einige Modelle zu vergleichen. Die meisten Modelle bie- ten auch die Möglichkeit, ein eigenes Fine Tuning vorzuneh- men, beispielsweise, um Textannotationen erstellen zu lassen. Fine Tuning beschreibt generell einen Prozess, bei dem ein vor- handenes Modell gezielt für eine spezifische Aufgabe weiter- trainiert wird. Die Nutzung Generativer KI kann nicht losgelöst von der Problematik des Datenschutzes betrachtet werden, denn: Wer- den ChatGPT, DeepSeek und Co. online genutzt, werden Daten außerhalb der EU weiterverarbeitet und gegebenenfalls auch zum Training neuer Modelle verwendet. Das stellt vor allem dann ein Problem dar, wenn sensible Daten verarbeitet wer- den, seien es innovative Ideen aus der eigenen Forschung, Daten von Studienteilnehmenden oder Forschungsanträge. Die ein- fachste Lösung können API-Zugänge sein. Die Server der Anbie- ter werden dann über eine Code-Schnittstelle angesprochen anstatt über das Online-Interface. Dies macht es auch einfa- cher, Daten in größeren Mengen automatisiert an das Modell zu senden. OpenAI verspricht z. B., dass Daten, die über eine API- Schnittstelle zu den Servern gelangen, nicht gespeichert oder für Trainingszwecke verwendet werden. Weitere Datenschutz- probleme können Nutzende umgehen, wenn sie die Modelle lokal ausführen. Einige Modelle, etwa von Llama (Meta) und DeepSeek, sind frei verfügbar, man kann sie theoretisch lokal laufen lassen, also auf dem privaten Rechner oder Server ausfüh- ren und somit die Kommunikation zu den Servern der Anbieter vermeiden. Zwei Faktoren stellen jedoch oft einen Engpass dar: die Rechen- kapazität und die Modellgröße. Generative KI-Modelle haben für jede Ausgabe einen enorm hohen Rechenaufwand. Damit eine Antwort nicht zu lange dauert, werden einige Prozesse gleichzeitig ausgeführt. Nicht jede Art von Hardware kann die- se parallelen Berechnungen ausführen, entscheidend hierfür ist ein Grafikprozessor (engl. graphic processing unit – GPU). Nicht jeder Rechner hat jedoch einen Grafikprozessor, und auch bei den Rechnern mit solcher Hardware gibt es unterschiedlich leistungsstarke Optionen. Der zweite Faktor ist die Modellgrö- ße. Hinter den genauen Modellbezeichnungen ist meist eine Parameter-Angabe zu finden, zum Beispiel Llama #.# - (%B. (%B steht für (% Billionen Parameter. Je größer die Zahl der Parame- ter, desto größer sind das Modell und der Rechenaufwand, aber desto besser ist auch das Ergebnis. Wer Modelle lokal ausführen möchte, muss also in Erfahrung bringen, welche Rechenkapa- zität vorhanden ist und wie groß das Modell ist, das benutzt werden soll. Es gibt weitere Anwendungsmöglichkeiten, bei denen keine sensiblen Daten weitergegeben werden müssen. Immer häu- figer wird Generative KI z. B. beim Erstellen von Personas für Studien genutzt, um Beschreibungen zu vereinheitlichen oder Bilder für die Personas zu erstellen. Dabei kann man aus vielen verschiedenen Stilen auswählen und hat den Vorteil, einzelne Merkmale verändern zu können, statt die ganze Persona aus- zutauschen, wie es häufig bei Stockfotos der Fall ist. Aber: Bild- generierung ist aktuell nur mit einem sehr kleinen täglichen Limit kostenlos. Fazit: Klare Erwartungen – besseres Ergebnis Wer Generative KI einsetzen will, muss sich vorab ein paar Gedanken machen, um ein gutes Ergebnis zu erzielen. Das fängt bei der Auswahl des Modells an, geht über Restriktionen wie etwa Datenschutzaspekte und endet bei der Formulierung des Prompts. Ob Nutzende sich tiefer mit dem Prompt Engineering vertraut machen und den perfekten SCoT-Prompt ausarbeiten oder sich nur gut überlegen, welche Aufgabe sie erledigen möch- ten, und ausreichend Kontextinformationen an das Sprachmodell übergeben, bleibt jeder und jedem selbst überlassen. Sonja Niemann ist wissenschaftliche Referentin in der Abteilung For- schung am Bayerischen Forschungsinstitut für Digitale Transformation (bidt) der Bayerischen Akademie der Wissenschaften. Sie arbeitet im Forschungsschwerpunkt „ Mensch und generative KI: Trust in Co-Creation“ insbesondere zum Thema Code-Generierung . Mehr dazu unter: bidt .digital/generative-ki A k a d e m i e A k t u e l l A k a d e m i e A k t u e l l !" !"