In seinen Eröffnungsworten rief Weihbischof Dr. Dr. Anton Losinger (Augsburg), Bischöflicher Beauftragter für den KAAD, dazu auf, die Chancen und Risiken, die mit dem Einsatz Künstlicher Intelligenz verbunden sind, abzuwägen, denn „angesichts der neuen Technologien und der mit ihr einhergehenden lernenden Maschine“ müsse „die Frage danach, was das Mensch-Sein eigentlich ausmacht und wie sich Mensch und Maschine zueinander verhalten, noch einmal neu gestellt werden.“ Da die Wissenschaften und die Wissensgesellschaft „in erheblichem Maße von der sich nun abzeichnenden Transformation betroffen“ seien, wäre „auch der KAAD mit seinem großen akademischen weltweiten Netzwerk mit dem Thema der Künstlichen Intelligenz in vielfacher Weise angesprochen. Die Beschäftigung mit den Chancen und Herausforderungen einer derart weltbewegenden facettenreichen technischen Transformation, die so viele Lebensbereiche berührt“, obliege heutigen und zukünftigen Verantwortungsträgern daher in besonderer Weise. Für die Wissensgesellschaft ergebe sich ein „Gestaltungsauftrag“, der „unsere Verantwortung als Gesellschaft und Rechtsstaat fordert“, erläuterte Losinger in seinem anschließenden Vortrag „Dilemmata in der neuen Form der Wissensgesellschaft: Ethische Reflexionen“.
Auch KAAD Präsident P. Dr. Hans Langendörfer SJ betonte, dass die „menschliche Wachheit, intellektuelle Ernsthaftigkeit und spirituelle Offenheit“, die er im weltweiten Netzwerk des KAAD und insbesondere bei der Jahresakademie erlebe, eine „besondere, nicht selbstverständliche Erfahrung von Kirche in der Welt“ sei. Auf dieser Grundlage ließe sich – mit Papst Franziskus gesprochen – gut fragen, wie Künstliche Intelligenz „in den Dienst der Menschheit und des Schutzes unseres gemeinsamen Hauses gestellt werden kann.“
Dass es „zwischen den Ländern des Globalen Nordens und des Globalen Südens … große Unterschiede in der Wahrnehmung von Risiken und potenziellem Nutzen der KI" gebe unterstrich KAAD-Generalsekretärin Dr. Nora Kalbarczyk. Die Herausarbeitung der Unterschiede, neuer Perspektiven und Herangehensweisen im Diskurs über den Einsatz von KI sei eines der Ziele der Jahresakademie 2024.
Auf die vielfältigen Einsatzmöglichkeiten von KI mit Blick auf die Gesellschaften des Globalen Südens und die Verantwortung, die diesem Einsatz zugrunde liegt, ging KAAD-Alumnus Prof. Dr. Jerry John Kponyo, Mitbegründer des Responsible AI Network Africa (RAIN Africa) und Professor für Informations- und Kommunikationstechnologie an der Kwame Nkrumah University of Science and Technology in Ghana, ein. Er gilt als einer der führenden KI-Wissenschaftler des afrikanischen Kontinents und nahm grundlegende ethische Fragestellungen in den Blick; so müssten beispielsweise „gerechte und konkrete Vorhersagen und Lösungen“ bei der Entwicklung von Algorithmen und der Erstellung von Datensätzen gewährleistet sein, um zu verhindern, „dass bestehende soziale Vorurteile gegenüber bestimmten Gruppen von Menschen durch KI unwissentlich gefördert werden.“
Das Thema der Jahresakademie wurde dann in insgesamt fünf Foren, die sich mit den verschiedenen Anwendungsbereichen der KI auseinandersetzten, erarbeitet:
Das von Dr. Anselm Feldmann moderierte Forum 1 „Künstliche Intelligenz – Ein „Gamechanger“ in der Entwicklungszusammenarbeit?“ setzte sich mit den Risiken auseinander, die beim Einsatz der Künstlichen Intelligenz in der Entwicklungszusammenarbeit bestehen. Theresa Züger, Leiterin der Forschungsgruppe Public Interest AI am Humboldt Institut für Internet und Gesellschaftin Berlin, gab einen Überblick über den Zusammenhang von Public Interest und Künstlicher Intelligenz und ging auf die Möglichkeiten und Risiken sowie auf die missbräuchliche Verwendung, die sich aus dem Einsatz der KI für Gesellschaften ergeben, ein. Anhand einiger Beispiele der Arbeit der Gesellschaft für Internationale Zusammenarbeit (GIZ) vertiefte Balthas Seibold, Co-Lead des FairForward Projekts der GIZ, in seinem Vortrag die spezifischen Möglichkeiten, um mit dem Einsatz der Künstlichen Intelligenz die Sustainable Development Goals (SDG) zu erreichen. Er legte dar, dass KI Muster gut erkennen und Entscheidungsfindungsprozesse replizieren könne, betonte aber auch, dass die KI gute Daten benötige, um gute Ergebnisse zu erzielen. Die Möglichkeiten, die sich aus einem Einsatz von KI im Globalen Süden ergeben, seien vielfältig und anderweitig kaum oder gar nicht darstellbar, beispielsweise in der Landwirtschaft, der medizinischen Versorgung, in der Verwaltung und im Umgang mit dem Klimawandel. Mit den Möglichkeiten gehen aber auch die Risiken einher, wie KAAD-Stipendiat Adio-Adet Tichifara Dinika darlegte. Auch er betonte, dass KI ohne „intelligente“ Daten nichts Sinnvolles erreichen könne. Im Zentrum seiner Präsentation ging es allerdings nicht um die Datenübermittlung, sondern um die Produktion derselbigen. Anhand seiner Feldforschungen in Kenia zeigte der Doktorand auf, wie in Fabrikhallen in Kenia gut ausgebildete, junge Menschen mangels anderer Perspektiven von früh bis spät für einen Hungerlohn und ohne Arbeitnehmerrechte Datensätze bearbeiten oder über Wochen stundenlang und tausendfach Gewaltvideos und (kinder-)pornographisches Material sichten, damit die KI solche Inhalte erkennt. Die Beschäftigten selbst tragen schwere Traumatisierungen davon, ohne jegliche Hilfe zu erhalten. Die Datensätze wiederum werden von millionenschweren Technologieunternehmen des Globalen Nordens genutzt, um ihre Marktmacht auch in Zukunft zu sichern. Von den Erlösen sehen diejenigen, die die dafür nötigen Daten erheben, sehr wenig: auch dies sei eine Form der neokolonialen Ausbeutung, so Adio-Adet Tichifara Dinika.
Unter dem Titel „KI und unser Bild vom Menschen – Philosophische Perspektiven auf Künstliche Intelligenz“ setze sich Forum 2 (Leitung: Dr. Martin Reilich, Cusanuswerk, Bonn) mit den bereits bestehenden und zukünftig noch relevanter werdenden Grenzen von Mensch und Maschine auseinander. Dazu legte die Wissenschaftsjournalistin Dr. Manuela Lenzen den Fokus auf diejenigen Eigenschaften des Menschen, die von KI nicht oder nur sehr unzureichend kopiert oder simuliert werden können: Kreativität, Moral, Bewusstsein, Autonomie. Vor dem Einstieg in die Diskussion erklärte Manuela Lenzen einige technische Grundlagen der modernen KI, die für den rasanten Fortschritt derselbigen in jüngster Zeit verantwortlich sind: maschinellen Lernmodelle können durch große Datenmengen derart trainiert werden, dass sie eine Vielzahl von Aufgaben lösen können. Durch selbstüberwachtes Lernen oder halbüberwachtes Lernen entstehen viele Milliarden von Parametern, die dann als sogenannte „Transformer“ eingesetzt werden können. Der weithin bekannte „Chat GPT“ („Generative Pre-trained Transformer“ der Firma Open AI) beispielsweise arbeitet mit 1,8 Billionen Parametern, der „Google Switch Transformer“ mit 1,6 Billionen. Entscheidend sei aber, so Manuela Lenzen, dass diese Lernmodelle sich genau in den Bereichen nicht selbst trainieren können, die sie als „letzte Bastionen des Menschseins“ beschrieb: Moral und Kreativität. Hier nämlich sind die „Transformer“ darauf angewiesen, von Menschen trainiert zu werden, um durch dieses Training bessere Ergebnisse für die Nutzer generieren zu können. An dieser Stelle richtet Manuela Lenzen den Blick auf den Global Süden, aus dem die meisten Teilnehmenden des Forums stammten, und griff die gleiche Problematik auf, die bereits in Forum 1 herausgestellt wurde: dass für das besagte Training der „Transformer“ gerade in Afrika zahlreiche junge, gut ausgebildete Menschen als Arbeitskräfte eingesetzt werden, für die diese Arbeit aufgrund der gewaltförmigen und sexuellen Inhalte, mit denen sie sich auseinandersetzen müssen, sehr belastend ist.
Forum 3 unter der Leitung von Markus Leimbach beschäftigte sich mit „Fake News durch KI – eine Gefahr für die Demokratie?“ und setzte sich insbesondere mit den Schwierigkeiten und Lösungsansätzen im Zusammenhang mit KI-gestützter Desinformation auseinander. Andreas Grün, Leiter der Abteilung Technologie Neue Medien (Zweites Deutsches Fernsehen, Mainz), stellte die Herausforderungen, die durch KI-gestützte Desinformation entstehen, vor und ging dabei vor allem darauf ein, wie schwer die Identifizierung und Bekämpfung von Fake News, insbesondere von sogenannten Deepfakes (realistisch aussehende, falsche Inhalte), durch KI-Technologien sei. Dadurch, dass Deepfakes oft Stereotype nutzen würden, um ihre Glaubwürdigkeit zu erhöhen, sei ihre Verbreitung praktisch nicht zu verhindern. Der dadurch entstehende Vertrauensverlust in die Medien stelle eine fundamentale Bedrohung für die Demokratie dar. Die Entwicklung von Methoden zur Erkennung von und zum Umgang mit KI-gestützter Desinformation sei daher immanent. Als Beispiel ging Andreas Grün auf die Rolle der öffentlich-rechtlichen Sender bei der Bekämpfung von KI-gestützter Desinformation ein und hob hervor, dass in Deutschland eine Abstimmung zwischen verschiedenen Medienhäusern stattfinde, um eine einheitliche Linie im Umgang mit KI-Desinformation zu verfolgen. Öffentlich-rechtliche Sender wie das ZDF sind durch Rundfunkräte kontrolliert und agieren unabhängig von staatlicher Einflussnahme, während Staatsmedien direkt von der Regierung kontrolliert werden und oftmals staatlichen Interessen dienen würden. Diese Unterscheidung sei wichtig, um die Rolle und Verantwortung der Medien in einer Demokratie zu verstehen und sicherzustellen, dass sie als unabhängige Informationsquelle fungieren. Die ukrainische KAAD-Stipendiatin Alisa Kohinova ergänzte als Referentin die Diskussion und konkretisierte technische Ansätze zur Bekämpfung von Fake News und die Funktionsweise von Software, die die Nutzung bestimmter Nachrichtenquellen einschränkt, um die Erstellung von Fake News zu verhindern. Deutlich stelle sie die Notwendigkeit heraus, AI-Tools zu entwickeln, die gefälschte Inhalte erkennen können.
Wie sich„Das digitale Gegenüber: KI und menschliche Kommunikation“ zueinander verhalten, untersuchte Forum 4, moderiert von Dr. Thomas Krüggeler. Dr. Christian Stein, der sowohl Germanistik als auch Informatik studiert und in Literaturwissenschaft promoviert hat, eröffnete die Diskussion, indem er in einem ersten Kurzvortrag nicht nur wichtige Stufen des Computer-Zeitalters (von der individuellen Maschine bis zum Internet) skizzierte, sondern auch den Unterschied zwischen natürlicher und künstlicher Sprache beschrieb und dabei herausstellte, dass sich das menschliche Verstehen deutlich von der Art unterscheidet, wie Maschinen „Verstehen“ und „Verständnis“ generieren. Ein Beitrag der ägyptischen KAAD-Stipendiatin Marina Aziz, die das Masterprogramm Computational Linguistics an der Universität Stuttgart absolviert, ergänzte die Ausführungen von Christian Stein. Sie präsentierte die Praxis ihres Fachgebiets, in dem Algorithmen eingesetzt werden, um sowohl die geschriebene als auch die gesprochene Sprache zu analysieren. Die Computerlinguistik ist nach Einschätzung von Marina Azizdie interdisziplinäre Wissenschaft schlechthin, um mithilfe eigener Daten die Qualität der KI zu beeinflussen. Im Anschluss an den Beitrag der Stipendiatin fokussierte sich Christian Stein in seinem Hauptvortrag auf Aspekte wie ‚KI und Gefühle‘, ‚KI und Kreativität‘ und die menschliche Wahrnehmung von KI. Er warnte die Teilnehmenden davor, die (real bestehenden) Gefahren der künstlichen Intelligenz zu sehr in den Fokus zu nehmen, um die vielversprechenden Perspektiven, die sich durch die Entwicklung und den Einsatz der KI ergeben, nicht kleinzureden.
Die Künstliche Intelligenz eröffnet für die Gesundheitssysteme weltweit und insbesondere im Globalen Süden große Chancen: so schafft sie beispielsweise zahlreiche Möglichkeiten für Gesundheitssysteme, um Behandlungen, u. a. in abgelegenen Regionen, überhaupt zu ermöglichen, deren Qualität zu verbessern und dabei Kosten zu sparen. KI ist aber auch für alle Beteiligten mit erheblichen und sehr weit reichenden Risiken wie dem Missbrauch von Daten verbunden; darüber hinaus kann ihre Verfügbarkeit oder Funktion bei fehlendem Strom unzureichend sein, sie ist abhängig von einem Internetzugang und es kann zu Problemen mit den Endgeräten kommen. All diesen Dingen widmete sich Forum 5 unter der Leitung von Nils Fischer mit dem Titel „Chancen und Risiken von KI für Gesundheitssysteme im Globalen Süden“. So zeigte die Gesundheitswissenschaftlerin und KAAD-Promotionsstipendiatin Phidelis Nasimiyu Wamalwa aus Kenia in ihrem Vortrag die Problematik bei der Nutzung von Künstlicher Intelligenz am Beispiel des kenianischen Gesundheitssystems auf, für das sich im Vergleich zum Globalen Norden ganz andere Herausforderungen ergeben, während Dr. Sandra Barteit, Gruppenleiterin Digital Global Health, Heidelberg Institute of Global Health der Universität Heidelberg, das Thema anhand von kenianischen Forschungsprojekten vertiefte. Diese leiteten dann in eine Workshop-Arbeit über, in der die Teilnehmenden bei bestehenden kenianischen Gesundheitsfirmen Potentiale und Risiken der Nutzung von KI für Patientinnen und Patienten analysierten. In der Besprechung der Ergebnisse zeigten sich ethische Probleme, zum Beispiel hinsichtlich des Aspektes der Gerechtigkeit, etwa, dass Zugänge zu den KI-gestützten Gesundheitsleistungen nicht gerecht verteilt sind, aber auch dahingehend, dass Datenmodelle, die im Globalen Norden etablierte wurden, falsche Ergebnisse für den Globalen Süden liefern können. Wie Risiken aufgenommen und Chancen erschlossen werden, führte zum Abschluss des Forums Prof. Dr. Alice Ojwang Achieng, Wissenschaftlerin am Institut für Ernährungswissenschaften und Diätetik an der Technische Universität von Kenia vor, indem sie ihr aktuelles Forschungsprojekt „Fotoanwendung künstlicher Intelligenz zur Unterstützung des Kohlenhydratmanagements bei Typ-2-Diabetes“ präsentierte.
Unter der Überschrift „Artificial Intelligence and the Global South: Opportunities and Challenges“ wurden die Beiträge der Foren anschließend in einem von Generalsekretärin Dr. Nora Kalbarczyk moderierten Podiumsgespräch mit Prof. Jerry John Kponyo, Dr. Theresa Züger, Dr. Christian Stein, Dr. Manuela Lenzen und Phidelis Wamalwa zusammengeführt und kontrovers diskutiert.
Morgendliche Gottesdienste und eine interreligiöse Begegnung im Gebet bildeten den spirituellen Rahmen der Jahresakademie. Im internationalen Festgottesdienst, der von KAAD-Präsident P. Dr. Hans Langendörfer SJ und den beiden geistlichen Beiräten des KAAD, P. Prof. Dr. Ulrich Engel OP und P. Prof. Dr. Thomas Eggensperger OP zelebrierte wurde, konnten sich die verschiedenen Regionalgruppen der KAAD-Stipendiatinnen und Stipendiaten mit Gesängen und Gebeten in ihren Muttersprachen einbringen.
Den Höhepunkt der Jahresakademie bildete auch in diesem Jahr die Verleihung des Preises der KAAD-Stiftung Peter Hünermann. Den nunmehr 13. Preis der Stiftung erhielt der ukrainische Kirchenhistoriker Prof. Dr. Oleh Turiy. Er wurde für sein wissenschaftliches und kirchliches Engagement, für seine Bemühungen in der ökumenischen Begegnung in seinem Heimatland und seinen Einsatz für eine demokratische Ukraine gewürdigt – die Laudationes hielten Dr. Markus Ingenlath (Renovabis) und Markus Leimbach (Referatsleiter Osteuropa, KAAD). Die Verleihung wurde in einen von KAAD-Stipendiatinnen und Stipendiaten gestalteten musikalischen Festakt eingebettet.
Die Fachgruppentreffen zu den Themen Wasser, Sprache, Globale Gesundheit, Frieden und Gerechtigkeit sowie Religion im Dialog fanden auch in diesem Jahr vor der eigentlichen Eröffnung der Jahresakademie statt.
Die 37. Jahresakademie des KAAD hat das enorme Potential, das mit dem Fortschreiten der Entwicklung der Künstlichen Intelligenz einhergeht, herausgestellt, gleichzeitig aber auch die große Ungleichheit und die unangemessene Nutzung von Arbeitskräften und Ressourcen, die für die Generierung dieses Fortschritts auf dem Rücken der Ärmsten ausgetragen werden, aufgedeckt. Ihre Rolle in sämtlichen Bereichen globaler Diskurse und die mit ihnen verbundenen Fragen über Menschlichkeit, Bewusstsein und Identität konnte diskutiert und interdisziplinär betrachtet werden, neue Perspektiven aufgezeigt und Herangehensweisen entwickelt werden.
Die 37. Jahresakademie des KAAD wurde mit freundlicher Unterstützung der Pax Bank-Stiftung realisiert.