🇬🇧 AI and the future of research and learning

This article is also available in German.


Artifical Intelligence (AI) is back in the news. Like every technological trends it has its own news cycle where it seems do disappear from the public mind to then come back full force because a new breakthrough happened.

A few weeks ago my twitter Timeline was full of pictures created by AI websites and applications like Dall-E or Stable Diffusion. The opened up a completely new approach to image creation. You just have to type in some words like „Paint a cat with a hat in the style of Picasso“ and the software would create a single image or sometimes multiple images that presumably fit the description. And it works – more or less. Sometimes the output is garbage, other times it is incredible and mind blowing.

Generated with Stable Diffusion

A few days ago people started talking about ChatGPT. This project started in 2018, with the release of the third iteration of this idea, GPT 3, in 2020. The next step was made with the release of ChatGPT in December 2022.

GPT is a project for generating English written text by AI. It doesn’t use predefined text fragments, but the program was pretrained by crawling large databases of texts from the web.

ChatGPT is a chatbot interface to GPT 3. It enables the user to ask questions and to interact with the bot through follow up questions and two way communication. The bot „remembers“ the preceding questions and topic in the conversations and can incorporate that into its own understanding of the users questions and forming of its own answers.

It’s fascinating to play around with this system. Some results can be comically horrendous. This seems to be the case if there is not enough source material for the system to present a reliable answer.
Other times the answers are spot an accurate and enlightening. It can present you definitions and summaries for topics that are really helpful.
I used GPT to summarize the religious developments in the intertestamental period between OT and NT. Another time I used it to define hermeneutics and how it differs from exegesis.
The answers I received were good enough to be used for a lecture without any change.

The system is obviously far from perfect. But it shows the potential in text or image generation by AI. And that opens a can of interesting questions.

I would like to present two different thoughts about what this might mean in the midterm and longterm. I have to begin with a disclaimer: I am not an expert in AI technology. So this thoughts are obviously to taken with a grain of salt.

AI and the future of research

AI can open up completely different ways of research. I thought about this in the context of Bible study software. This could indeed be a completely new approach in digital dictionary usage. I have a collection of academic Dictionaries in my Accordance Collection. If I want to get a broad picture about a topic like „second temple“ I have to put in search requests spanning all of those books, hoping I will find all the information I need.
I then have to go through all of the results and gather all the relevant information book by book.

Searching for Topics in Dictionaries in Accordance

A completely different approach would be to include something like chatGPT directly into Accordance or Logos as a form of research assistant. I then wouldn’t buy all the different dictionaries, but access to the AI Database as subscription. This Database is vetted by the provider to include reliable information. Then I would ask the bot questions about topics and would follow up on the results presented to me to dig deeper where necessary. If I need to cite articles or books for an academic paper the Bot would point me to recommended books or articles that e.g. were used to create the content of the database.
And because it’s not just a simple search query but a real AI Bot, I could have real interaction with the AI, developing ideas through the chat and checking those ideas against the available database. That could help you to bulletproof your ideas before you go public with them.

Christoph Heilig published a Twitter Thread about a „conversation“ with ChatGPT on the narrative structure of Romans and Galatians with some fascinating results.

We are just starting with this kind of interaction and it is already incredible. Future iterations only will get better and open up completely new paths of research.

AI and the future of learning

Robert Lepenies, University President and Professor at the Karlshochschule, published another Twitter Thread about how AI might affect and influence the future of learning and studying at universities.

If students will use AI to write homework and papers that are indistinguishable from something a human wrote, then this will create completely new challenges for education. What would be the purpose of homework that every student does through AI bots? And because all of those papers will be created on the fly and are not already published texts you will not find them through plagiarism software that is currently used.

That would require completely new approaches to how education functions and how you measure success in learning.

This future isn’t there yet, but it’s not far away as well. And educational institutions will have to adapt to these changes, because history shows that their students will among the first to discover the potential of new technology.

Soziale Medien und Inhalte-Moderation

Die Hunter Biden Story zeigt die massiven Probleme bei der Inhalte-Moderation auf sozialen Medien: Prinzipiell ist es richtig, dass bestimmte Inhalte moderiert werden mĂĽssen. Das bestreitet niemand. Nicht einmal Elon Musk.

Die Frage ist nie, ob moderiert werden muss, sondern was, wie transparent und nach welchen Kriterien. Klar ist: Gesetzlich illegale Inhalte mĂĽssen moderiert werden, mit der Option eines Rechtsweges im Beschwerdefall. Und auch darĂĽber, was gesetzlich verbotene Inhalte sind, muss es eine offene und breite Diskussion geben.

Die Hunter Biden Story zeigt aber, dass immer wieder aus falschen Beweggründen, unter falschen Vorwänden oder völlig intransparent eingegriffen wurde. Und das ideologische Motive dabei sehr wohl eine Rolle spielen.

Vor dem Wahlkampf 2020 wurde die Story auf Twitter und Facebook massiv weggedrückt. Wer auf die Geschichte hinwies wurde als rechter Verschwörungstheoretiker abgestempelt. Es wurde bestritten, dass es diesen Laptop überhaupt gegeben hat.

Jetzt wissen wir: Es gibt diesen Laptop und es ist tatsächlich eine Story, die zumindest Fragen aufwirft. Was auch immer dabei herauskommt. Man konnte aber nicht einmal diese Fragen stellen und ihnen nachgehen.

Zuckerberg hat zugegeben, dass sie diese Story bewusst moderiert haben. Bei Twitter ist es offensichtlich auch so gewesen. Die Begründung ist dann immer „Misinformation“, also die Sorge vor falschen Informationen. Unter diesem Vorwand wurden auch Themen zu Corona gelabelt oder ganz rausgehalten. Natürlich waren da auch abstruse Behauptungen dabei. Aber es traf auch berechtigte Fragen.

So galt es ganz am Anfang als Fehlinformation, wenn man Masken empfohlen hat. Sogar die WHO hat vom Maskentragen ohne besonderen Anlass abgeraten. Später war es aber genau umgekehrt: Wer die Effektivität von Masken ablehnte galt als Schwurbler. Bei den Impfungen wurde offiziell betont, dass sie die Verbreitung des Virus effektiv verhindern und dass es keine oder nur unbedeutende Nebenwirkungen gibt. Heute wissen wir: Beides stimmt nicht! (disclaimer: Ich bin geimpft und denke die Impfung ist sinnvoll gegen schwere Verläufe.) Wer dieses offizielle Narrativ aber hinterfragte, bekam in den Netzwerken tatsächlich Probleme.

Bei illegalen Inhalten – vor allem Aufrufe zu Gewalt und Beleidigungen – muss moderiert werden. Wobei auch da diskutiert werden muss, wie genau man das definiert. Der ganze Bereich der „Misinformation“ aber ist höchst problematisch, weil es stark subjektiv und ideologisch werden kann.

FĂĽr dieses Problem gibt es auch keine saubere Lösung. Entweder man filtert zu viel – und damit potentiell auch korrekte oder fĂĽr eine Diskussion wichtige Inhalte. Oder man filtert zu wenig – und riskiert damit, dass Fehlinformationen weiter verbreitet werden.

Ich persönlich plädiere dafür eher Fehlinformationen zu riskieren, als die Debatte zu stark zu verengen und damit potentiell wichtige und korrigierende Positionen auszugrenzen. Eine aufgeklärte Gesellschaft sollte vom Ideal getrieben sein, dass die besseren Argumente sich am Ende durchsetzen, egal wie verworren der Weg dahin auch sein mag.

Und dort, wo man die besseren Argumente ignoriert, muss eine aufgeklärte Gesellschaft auch mit den Konsequenzen umgehen können, die das u.U. zur Folge hat.

The solution for the Misinformation Crisis

I know how to tackle the misinformatiom crisis on social media.

It’s pretty easy. Hear me out.

First step: you form a council of scientists. They meet regularly in meetings. Let’s call them „worldwide council of Rome“. Every local community of scientists sends a representative to this worldwide council. It could be located in other cities around the world.

Second step: The council chooses a head of the worldwide scientists community.

Third: The council chooses a body of the most important scientific books, let’s say 60-70. You could call it the canonical scientific library.

Fourth: The council then tackles the most important scientific questions through declarations that were formed in the worldwide council meetings. Those declarations consist of positive statements of truth and negative statements of denial of falsehood.

Six: Eveyone who wants to participate in the scientific dialog has to adhere to those stated truths that have always been believed in the scientific community worldwide and represent the basic scientific truths.

Science Books have to get an official imprint from the council to be used in universities etc.

And every scientist who diverges from the truths in the canonical Library or the declarations will be declared an outcast.

If you do it this way you can rightfully talk about „The Science“™ because you would have an secured and reliable pool of scientific knowledge …

Originally tweeted by Karl-Peter Karzelek (@kpk_eu) on 5. December 2022.

đź“ş Klippert: Krisenfest werden

Für den geplanten Männertag in diesem Jahr hat die Bibelschule Brake Wolfgang Klippert eingeladen, zwei Vorträge zum Thema „Krisenfest werden“ zu halten.

Leider konnte der Männertag nicht in Präsenz stattfinden. Das ist schade und doch Glück zugleich. Denn als Alternative hat die Bibelschule die beiden erstklassigen Vorträge aufgenommen und über YouTube zur Verfügung gestellt.

Im ersten Vortrag geht Klippert darauf ein, was Krisen sind.

Im zweiten Vortrag gibt Klippert dann sieben Ratschläge dafür, wie wir lernen können mit Krisen umzugehen.

Männertag 2022 an der Bibelschule Brake

Der Männertag im Januar ist seit vielen Jahren eine feste Institution an der Bibelschule Brake. Dieses Jahr konnte er Corona-bedingt nicht stattfinden. Aber für 2022 plant die Bibelschule wieder mit ihm.

Ich freue mich sehr, dass ich nach 2020 auch dieses Mal wieder mit einem Seminar zum Männertag beitragen kann. In meinem Seminar werde ich ein paar Erfahrungen und Beobachtungen aus meinem Studium der beiden Evangelien von Markus (über die Predigtreihe in meiner Gemeinde) und Johannes (über die Bibelstudien-Reihe in meiner Gemeinde) weitergeben. Ich hoffe, dass die Teilnehmer dadurch noch mehr wertzuschätzen lernen, was für großartige Literatur Gott uns mit den Evangelien hinterlassen hat.

Ich wĂĽrde mich freuen, dich dort vielleicht zu sehen:

https://www.bibelschule-brake.de/veranstaltungen/veranstaltung/maennertag-2022