Schlagwortarchiv für: Künstliche Intelligenz

In den sozialen Medien und auf Konferenzen tauchen immer mehr Redner und Blogger aus dem Bildungsbereich auf, die über künstliche Intelligenz und insbesondere Chat GPT sprechen und/oder schreiben. Einige sehen in der Text-/Sprachgenerierungs-Anwendung eine große Chance für das Bildungssystem. Andere halten sie für kontraproduktiv und fragen sich, ob Schüler:innen, Lehrkräften und anderen Personen das kritische Denken, die Kreativität und das selbstständige Schreiben von Texten abgenommen wird. Gefährdet KI die Förderung der 21st Century Skills?

Mit Chat GPT können ganz leicht Hausaufgaben, Projekt- und Abschlussarbeiten, Fachartikel, etc. erstellt werden, ohne dass der oder die Autor:in selbst auch nur ein Wort geschrieben hat. Insbesondere könnten damit Massenhaft FakeNews „geschrieben“ werden – fake deshalb, weil die ChatGTP viele Halbwahrheiten produziert, niemals alle Aspekte berücksichtigt, datenbasierte Stereotypen abbildet und nur auf Informationen zurückgreift, welche spätestens im Jahr 2021 bereit standen. Quellen kann sie nicht angeben.

 

Dadurch kann beispielsweise ein nicht-zeitgemäßer Beitrag zum Ukraine-Krieg entstehen – siehe Screenshot. Eine Schülerin hatte den 1. Absatz als aktuell verstanden – dabei bezieht sich der Textinhalt nicht auf den Angriffsgriff von Russland auf die Ukraine im Jahr 2022, sondern auf den im Jahr 2014.

Alternative Text-Generatoren sind: Neuroflash (aus D, Hamburg), JasperChat, conversionmaker.ai, writesonic sowie YouChat und weitere.

Bis hierhin ist der Text selbst geschrieben worden.

Für den folgenden Text wurden im ChatGTP Fragen gestellt – die richtigen Fragen zu stellen, ist hier die Herausforderung gewesen. Die Antworten sind von der KI.


Wie kann Chat GPT im Schul-Unterricht verwendet werden?

Chat GPT kann in vielerlei Hinsicht im Schulunterricht verwendet werden. Einige mögliche Anwendungen sind:

  1. Textgenerierung: ChatGPT kann Schülern helfen, kreative Schreibaufgaben zu erledigen, indem es ihnen Vorschläge für Sätze und Absätze gibt, die sie in ihre Arbeiten einbauen können.
  2. Unterstützung beim Lernen von Sprachen: ChatGPT kann Schülern helfen, ihre Fähigkeiten in Fremdsprachen zu verbessern, indem es ihnen hilft, Übersetzungen von Wörtern und Sätzen zu finden und indem es ihnen bei der Verfassung von Sätzen in der Fremdsprache unterstützt.
  3. Unterstützung bei der Recherche: ChatGPT kann Schülern helfen, Informationen zu bestimmten Themen zu finden und zusammenzufassen, indem es ihnen dabei hilft, relevante Suchbegriffe zu generieren und zusammenhängende Texte zu erstellen.
  4. Unterstützung bei der Prüfungsvorbereitung: ChatGPT kann Schülern helfen, Prüfungsfragen zu generieren und Antworten darauf zu finden, indem es ihnen dabei hilft, relevante Begriffe und Konzepte zu identifizieren und die dazugehörigen Informationen zusammenzufassen.
  5. Unterstützung bei der Verfassung von Essays: ChatGPT kann Schülern helfen, ihre Argumentation und ihre Schreibstile zu verbessern, indem es ihnen Vorschläge für Sätze und Absätze gibt, die sie in ihre Essays einbauen können.

Es ist wichtig zu beachten, dass Chat GPT ein Werkzeug ist und es sollte von Lehrern und Schülern kritisch beurteilt werden. Es ist auch wichtig, die ethischen Aspekte und möglichen Probleme im Zusammenhang mit der Verwendung von AI in der Bildung zu berücksichtigen.

Fragen und Anmerkungen der Redaktion: Wie erkennen Lehrkräfte, wenn Schüler:innen Texte nicht selbst geschrieben haben? Am Schreibstil? An den vielen Wiederholungen (es nervt teilweise…) ? An den plötzlich tollen Schreibkenntnissen der SuS? Es wird eine Herausforderung, damit im Schulalltag umzugehen!

Idee von Susanne Braun-Speck: “Eine überprüfbare Möglichkeit ist die Angabe von Quellen! Meine Jugendredakteure von den Online-Schülerzeitungen müssen in ihren redaktionellen Beiträgen immer die Quellen angeben, dadurch kann ich einzelne Informationen inhaltlich punktuell überprüfen – damit auch die Herkunft. Da ChatGTP keine Quellen angegeben kann, ist das eine sinnvolle Methode.”

Link-Tipp: TaskCard zum Thema von Cornelia Stenschke

Link-Tipp: TaskCard zum Thema von Cornelia Stenschke

Link-Tipp: TaskCard zum Thema von Cornelia Stenschke

 


Chat GPT kann keine Quellen nennen. Wie sicher sind dann die Recherche-Ergebnisse der KI?

Es ist richtig, dass ChatGPT, wie die meisten AI-Modelle, die verwendet werden, um automatisch Texte zu generieren, nicht in der Lage ist, die Quellen zu nennen, auf denen es die generierten Texte basiert. Es ist ein generatives Modell, das auf großen Mengen an Texten trainiert wurde, die im Internet verfügbar sind, und es kann Schwierigkeiten haben, die genauen Quellen zu identifizieren, auf die es sich bezieht.

Das bedeutet jedoch nicht, dass die Recherche-Ergebnisse, die das Modell liefert, automatisch unsicher sind. ChatGPT ist ein fortschrittliches Modell, das auf großen Mengen an Texten trainiert wurde, und es hat eine gewisse Fähigkeit, relevante und zutreffende Informationen zu generieren. Es ist jedoch wichtig, dass die Ergebnisse, die es liefert, von Personen überprüft werden, insbesondere wenn sie verwendet werden, um wichtige Entscheidungen zu treffen oder um wissenschaftliche oder akademische Arbeiten zu unterstützen.

Es ist auch wichtig zu beachten, dass ChatGPT ein Werkzeug ist und es kann auch Bias enthalten, der in den trainierenden Daten vorhanden ist und es kann auch Probleme bei der Generalisierung und dem Umgang mit unbekannten oder unerwarteten Eingaben haben, deswegen sollte man die Ergebnisse immer kritisch beurteilen und sicherstellen, dass die Informationen stimmen.


Kennst Du die 4K Kompetenzen? Schadet Chat GPT nicht der Kreativität?

Die 4C-Kompetenzen (auch als 21st Century Skills bekannt) beziehen sich auf Fähigkeiten, die Schüler in der heutigen Welt benötigen, um erfolgreich zu sein. Diese Fähigkeiten umfassen:

  1. Kommunikation: die Fähigkeit, klar und effektiv zu sprechen, zu schreiben und zu präsentieren.
  2. Zusammenarbeit: die Fähigkeit, erfolgreich mit anderen zusammenzuarbeiten, um gemeinsam Probleme zu lösen.
  3. Kritisches Denken: die Fähigkeit, Informationen zu sammeln, zu analysieren und Entscheidungen zu treffen.
  4. Kreativität: die Fähigkeit, neue und innovative Ideen zu entwickeln und umzusetzen.

In Bezug auf die Verwendung von ChatGPT im Unterricht kann es dazu beitragen, die Schüler bei der Entwicklung ihrer kommunikativen und sprachlichen Fähigkeiten und ihrer Fähigkeiten im Zusammenarbeit und Recherche zu unterstützen. Allerdings, wie es bereits erwähnt wurde, kann es auch Bias enthalten und es kann Probleme bei der Generalisierung geben.

Die Media4Schools-Redaktion sieht das kritisch und geht davon aus, dass die 4k-Kompetenzen durch die Nutzung von ChatGTP eher schlechter, als gefördert werden.


Wer gilt als Urheber der Chat GPT-Texte?

Es kann argumentiert werden, dass das Modell selbst als Schöpfer der Texte betrachtet werden kann, da es die Texte auf der Grundlage des Trainings, das es erhalten hat, generiert. Andererseits könnte man argumentieren, dass die Urheberschaft bei den Autoren der Texte liegt, auf die das Modell trainiert wurde, da das Modell diese Texte verwendet, um seine eigenen Texte zu generieren.

Es gibt auch die Möglichkeit, dass die Texte, die von ChatGPT generiert werden, als gemeinfrei gelten, da sie nicht als direkte Kopien der Quelltexte betrachtet werden können, sondern als neue Schöpfungen.

Es ist wichtig zu beachten, dass die Rechtslage in Bezug auf die Urheberschaft von AI-generierten Texten in vielen Ländern noch nicht abschließend geklärt ist.

Anmerkung der Red.: Falls das Modell ChatGTP als Schöpfer und damit Urheber gelten sollte, dann könnte es sein, dass etwa Texte welche Lehrkräfte oder Schüler:innen damit geschrieben haben, ihnen nicht gehören. Wohin könnte das führen? Zur Allmacht der KI? Weil ihr alle Texte gehören? Zu Schadensersatzforderungen aufgrund von Urheberrechtsverletzungen?


Welche Probleme gibt es mit dieser KI?

ChatGPT, wie alle AI-Modelle, hat einige Probleme und Einschränkungen, die es zu berücksichtigen gilt.

Einige davon sind:

  1. Generalisierungsprobleme: ChatGPT wurde anhand einer großen Menge an Texten trainiert, die im Internet verfügbar sind, und es kann Schwierigkeiten haben, auf unbekannte oder unerwartete Eingaben zu reagieren.
  2. #Bias: ChatGPT kann Bias in Bezug auf Geschlecht, Rasse, ethnische Zusammensetzung, Alter und andere Faktoren aufweisen, die in den Daten enthalten sind, auf denen es trainiert wurde.
  3. Fehlerhaftes Verhalten: ChatGPT kann manchmal unangemessen oder fehlerhaftes Verhalten aufweisen, insbesondere wenn es dazu aufgefordert wird, unethische oder gefährliche Aktionen durchzuführen.
  4. Datenschutz und Sicherheit: Da ChatGPT auf großen Mengen an persönlichen Daten trainiert wird, gibt es Bedenken bezüglich des Schutzes dieser Daten und der Sicherheit des Modells gegen Angriffe.
  5. Ethische Bedenken: AI-Systeme wie ChatGPT können auch ethische Bedenken aufwerfen, insbesondere in Bezug auf die Kontrolle und Verantwortung für ihr Verhalten und die Auswirkungen, die sie auf die Gesellschaft haben können.

Es ist wichtig, dass diese Probleme bei der Entwicklung und Anwendung von ChatGPT berücksichtigt werden, um sicherzustellen, dass das Modell ethisch und verantwortungsvoll eingesetzt wird.

Ein #Bias bezieht sich auf eine Verzerrung oder Unvoreingenommenheit in den Ergebnissen eines Modells oder Algorithmus. Im Kontext von künstlicher Intelligenz und maschinellen Lernen kann Bias in Bezug auf die Daten entstehen, auf denen ein Modell trainiert wurde, oder in Bezug auf die Algorithmen, die verwendet werden, um das Modell zu trainieren und zu verarbeiten.

Ein Beispiel für Bias bei der Daten ist, wenn ein Modell, das für die Gesichtserkennung trainiert wurde, häufiger Personen mit hellerer Hautfarbe erkennt als Personen mit dunklerer Hautfarbe, weil die trainierenden Daten eine unverhältnismäßig hohe Anzahl von Bildern von Personen mit hellerer Hautfarbe enthalten.

Ein Beispiel für Bias in Bezug auf Algorithmen wäre, wenn ein Modell, das für die Vergabe von Krediten trainiert wurde, häufiger Kredite an Männer vergibt als an Frauen, weil der Algorithmus eine Verbindung zwischen Geschlecht und Kreditwürdigkeit unterstellt.

Es ist wichtig, Bias in AI-Modellen und -Algorithmen zu erkennen und zu bekämpfen, da sie dazu führen können, dass bestimmte Gruppen von Menschen benachteiligt werden und die Entscheidungen, die das Modell trifft, unfair oder ungenau sind.


Grundsatzfragen:

Was ist AI, was KI?

AI steht für Artificial Intelligence, was auf Deutsch künstliche Intelligenz (KI) bedeutet.

KI ist die Abkürzung für künstliche Intelligenz. Es handelt sich dabei um den Einsatz von Computer-Algorithmen und -Systemen, um Aufgaben zu lösen, die normalerweise den menschlichen Verstand erfordern, wie z.B. das Verstehen natürlicher Sprache, das Lernen aus Beispielen, die Prognose von Ereignissen und das Entscheiden. KI-Systeme können in verschiedenen Anwendungen eingesetzt werden, wie z.B. in der Spracherkennung, der Bilderkennung, der medizinischen Diagnose, der autonomen Fahrzeugsteuerung und vieles mehr.


Gibt es einen Unterschied zwischen KI und AI?

(Anmerkung d. Red.: Das ist eine andere Aussage, als die erste, in der es heißt AI wäre die englische Form von KI) In der Regel bezieht sich AI auf den allgemeineren Begriff der Schaffung von Intelligenz durch Maschinen, während KI sich auf die spezifische Anwendung von AI auf bestimmte Aufgaben oder Probleme bezieht. (Anmerkung der Redaktion: erste Wiederholung …) KI ist ein Teilgebiet von AI und bezieht sich auf die Entwicklung von Algorithmen und Systemen, die Aufgaben lösen können, die normalerweise den menschlichen Verstand erfordern, wie z.B. das Verstehen natürlicher Sprache, das Lernen aus Beispielen, die Prognose von Ereignissen und das Entscheiden.

Einige Leute verwenden diese Begriffe jedoch auch synonym, da AI und KI oft miteinander verknüpft sind und sich gegenseitig beeinflussen. Es gibt jedoch keine strikte Definition und es hängt von Kontext und persönlicher Präferenz ab, wie genau diese Begriffe verwendet werden.

KI-Systeme können unterteilt werden in drei Kategorien:

  • Die schwache KI (weak AI) ist auf eine bestimmte Anwendung oder Aufgabe ausgerichtet und kann diese Aufgabe gut erledigen, ist aber nicht in der Lage, andere Aufgaben zu übernehmen.
  • Die starke KI (strong AI) ist in der Lage, jede Aufgabe zu übernehmen, die ein Mensch auch kann.
  • Die Superintelligenz (super AI) ist ein hypothetischer Begriff und bezieht sich auf eine Intelligenz, die über die menschliche Intelligenz hinausgeht.

Im Allgemeinen ist AI ein breiterer Begriff, der sowohl KI als auch andere Aspekte der Schaffung von Intelligenz durch Maschinen umfasst, während KI sich auf die spezifische Anwendung von AI auf bestimmte Aufgaben oder Probleme bezieht.


Wie funktioniert ChatGTP?

ChatGPT ist ein sogenannter “Transformer”-basierter Sprachgenerierungs-Modell, das von #OpenAI trainiert wurde. Es nutzt die neuesten Fortschritte in der maschinellen Lernforschung, um natürliche Sprache zu verstehen und zu generieren. Das Modell wurde anhand einer großen Menge an Texten trainiert, die im Internet verfügbar sind , um es zu lehren, die Struktur und den Inhalt natürlicher Sprache zu verstehen.

Wenn das Modell eine Eingabe in Form eines Textes erhält, analysiert es die Eingabe und versucht, das nächste Wort oder die nächste Phrase vorherzusagen, die wahrscheinlich in dem Satz folgen werden. Es tut dies, indem es die Wahrscheinlichkeit jedes Wortes oder jeder Phrase anhand des Kontextes und des bisherigen Inputs berechnet. Dieser Prozess wiederholt sich, bis das Modell eine vollständige Antwort generiert hat.

Es ist zu beachten, dass ChatGPT wie alle AI-Modelle nur so gut ist wie die Daten, die es trainiert wurden und es kann Fehler oder Unvollständigkeiten in seinen Antworten enthalten.

ChatGPT wurde auf einer großen Menge an Texten trainiert, die im Internet verfügbar sind – bis 2021, noch nicht darüber hinaus. (Anmerkung d. Red.: Wiederholung)

Diese Texte kommen aus verschiedenen Quellen wie Nachrichtenartikeln, Büchern, sozialen Medien, Foren und anderen öffentlich zugänglichen Websites. Die genauen Quellen, die für das Training verwendet wurden, sind von OpenAI nicht veröffentlicht worden, aber es ist bekannt, dass die ursprüngliche Version von GPT (Generative Pre-trained Transformer) auf einem Datensatz von 40 GB Text trainiert wurde. (40 GB? Anmerkung der Redakteurin)

Es ist zu beachten, dass das Modell aufgrund der großen Menge an Daten, auf denen es trainiert wurde, eine Vielzahl von Themen und Sprachstilen beherrscht, aber es kann auch #Bias enthalten, der in den trainierenden Daten vorhanden ist und es kann auch Probleme bei der Generalisierung und dem Umgang mit unbekannten oder unerwarteten Eingaben haben.


Wer oder was ist OpenAI?

(Anmerkung d. Red.: Die Rechtschreibfehler des ChatGTP sind absichtlich stehen gelassen worden) OpenAI ist ein gemeinnütziger künstliche Intelligenz (KI) und maschinelles Lernen (ML) forschungs und Entwicklungsunternehmen, das 2015 von Elon Musk, Sam Altman, Greg Brockman und Ilya Sutskever gegründet wurde.

Das Ziel von OpenAI ist es, die KI-Technologie für den Nutzen aller Menschen zu entwickeln und zu verbreiten. Sie tun dies, indem sie forschung betreiben, um die neuesten Fortschritte in der KI-Technologie zu erzielen und diese Ergebnisse dann in Form von offenen Quellcode-Software, Tools und Dienstleistungen verfügbar zu machen, damit jeder sie nutzen und weiter entwickeln kann. OpenAI hat auch eine Reihe von Produkten und Dienstleistungen entwickelt, wie zum Beispiel GPT-3 (Generative Pre-trained Transformer 3), ein sehr fortschrittliches Sprachgenerierungsmodell, das für Anwendungen wie die Textgenerierung, die automatische Übersetzung und die Chatbot-Entwicklung verwendet werden kann. OpenAI arbeitet eng mit akademischen Institutionen, Unternehmen und Regierungen zusammen, um die Entwicklung und den Einsatz von KI-Technologie zu fördern und sicherzustellen, dass sie für alle Menschen nutzbar und ethisch vertretbar ist.

Offene Fragen der Redaktion: Versteht die KI, ChatGTP, Zusammenhänge? Die verbundenen Fragen? Wie kann, wie im oben genannten Anwendungsbeispiel zum Ukrainekrieg, verhindert werden, das falsche oder unvollständige, ggf. nicht zeitgemäße Informationen genutzt werden?