Zur Vermeidung von Spam werden deine Posts vor Veröffentlichung von den Moderatoren geprüft, falls du Links verwendest.
  • Moin zusammen,

    da das Stichwort KI (oder AI) in Form von ChatGPT ja schon ein paarmal gefallen ist und das Thema wahrscheinlich uns alle einmal irgendwie betreffen wird, möchte ich die Interessierten von Euch auf einen sehr interessanten Artikel bei heise online hinweisen. Hier hat der Autor Jürgen Schmidt mit Erfolg den Bot zum Lügen gebracht. Man muss nicht unbedingt alle Zitate inhaltlich verstehen, aber es wird deutlich, dass man nur mit entsprechendem eigenen Fachwissen die Qualität des Outputs dieses Chatbots beurteilen kann.

    Ich habe mal etwas herumgespielt und Aussagen bekommen, die sich mit meinem Fachwissen decken, aber der Bot kann auch ziemlich flache Allgemeinplätze von sich geben, die nicht wirklich hilfreich sind.

    Es ist mit KI eben so wie mit allen "intelligenteren" Tools: Es macht viel Sinn, z.B. bei der Benutzung eines Navis das eigene Gehirn eingeschaltet zu lassen, und nicht alles, was in irgendwelchen Internetmedien zu lesen ist, entspricht auch der Wahrheit.

    Wichtig finde ich folgendes Zitat aus dem Artikel:

    "Auf einen Punkt gebracht: Eine freilaufende KI könnte in kürzester Zeit das gesamte Menschheitswissen so mit Halbwahrheiten und Falschinformationen verdünnen, dass es quasi unbrauchbar wäre. "

    In diesem Sinne hoffe ich, dass sich auf die Dauer doch "natürliche" Intelligenz in Form von wissenschaftlichen Forschungsergebnissen gegen die Meinungsäußerungen von Faktenallergikern und erkenntnisresistenten Individuen durchsetzen wird. Übrigens ist Vernunft im Gegesatz zu verschiedenen überlebenswichtigen Ressourcen unseres Planeten nahezu beliebig vermehrbar und der Bedarf ist riesig!

    Ein schönes Wochenende wünscht

    Reinhard aus dem Odenwald

  • "die Fähigkeit im Brustton der Überzeugung mit vielen Details angereichert ziemlich glaubhafte Halbwahrheiten zu produzieren" ist für mich eine zentrale Aussage im dem Artikel. Dass die KI nicht perfekt ist, aber ziemlich gut, macht sie umso irreführender. =O

    Und wer weiß, ob der heise Artikel nicht insgeheim von ChatGPT geschrieben wurde ;)

    il dolce far niente:sleeping:

    Einmal editiert, zuletzt von Ted (11. Februar 2023 um 22:57)

  • In diesem Sinne hoffe ich, dass sich auf die Dauer doch "natürliche" Intelligenz in Form von wissenschaftlichen Forschungsergebnissen gegen die Meinungsäußerungen von Faktenallergikern und erkenntnisresistenten Individuen durchsetzen wird. Übrigens ist Vernunft im Gegesatz zu verschiedenen überlebenswichtigen Ressourcen unseres Planeten nahezu beliebig vermehrbar und der Bedarf ist riesig!

    Das würde ich mir auch sehr, sehr wünschen!!!!!!

  • Fundstück: Tutorial für ChatGPT. Interessant, dass man damit auch html-Codes oder Formeln für Excel-Tabellen erzeugen kann!

    Mein erster Versuch, eine Hängematte beschreiben zu lassen, hätte ein Textausschnitt von unserer eigenen Internetseite sein können..., die präzisierte Nachfrage, was denn eine mexikanische Netz-Hängematte ist, führte zum Ergebnis, dass diese aus stabilem Netz in einem Holzrahmen sei. Das wüsste ich aber... Nun, diese Hängematten werden in einem Holzrahmen hergestellt, der wird aber nicht mitgeliefert, ebenso wenig wie der Webstuhl zum Wohnzimmerteppich :D.

    Ich forsche demnächst weiter, es gibt auch Alternativen, die ich noch checken werde und freue mich über weitere Kommentare !

    Ute aus HWI: Expertin für teilstationäre mexikanische Mayahängematten und stationäre Tuch-Hängematten.

    Mehr dazu: Hängematten von Alasiesta.com

    Einmal editiert, zuletzt von alasiesta (16. Februar 2023 um 01:37) aus folgendem Grund: Zusatz

  • Mittagsfrost ChatGPT "behauptet" in dem Sinne nichts, sondern es produziert auf eine Anfrage schlicht einen Text, der wahrscheinlich so oder so ähnlich von einem Menschen kommen könnte. Es gibt ein paar hart einprogrammierte Grenzen, aber sonst ist das schlicht Statistik. Es ist aber durchaus möglich, das Programm nach der Logik hinter dem Text zu fragen. Das ist besonders dann hilfreich, wenn der Bot programmieren soll und der resultierende Quellcode "irgendwie seltsam" aussieht.

  • Kann man den ChatGPT dazu bringen, auch die Quellen mitzuliefern, auf die sich seine Behauptungen stützen?

    Würde man bei einem menschlichen Gesprächspartner ja auch machen (sollen).

    Denkst Du da z. B. an bestimmte Fälle von erschlichenen Doktortiteln? Die müssen tatsächlich die Quellen angeben, ansonsten erwartet man die Angabe oder es verwischt sich mit 'habe ich gelesen', 'hat Mutti gesagt ' bis 'Youtube-Universität' usw. Es bleibt weiterhin dem Zuhörer überlassen, ob er dem Gesagten traut. War es nicht schon immer so? Natürlich versucht man den Sprecher festzunageln, Baron Münchhausen wurde leider trotzdem berühmt und das nicht, weil ihm niemand glaubte.

    Ute aus HWI: Expertin für teilstationäre mexikanische Mayahängematten und stationäre Tuch-Hängematten.

    Mehr dazu: Hängematten von Alasiesta.com

  • Problematisch werden solche Chat-Bots aus meiner Sicht erst, wenn

    • man die Antworten nicht kritisch hinterfragt
    • sie gezielt so manipuliert würden, dass Menschen dadurch gezielt gesteuert werden sollen

    Insbesondere der zweite Punkt scheint mir wichtig, je nach zukünftiger Entwicklung.

    Ansonsten finde ich total faszinierend, was dieser ChatGPT drauf hat. Wenn man einigermassen intelligent zurückfragt, dann kommt man oft weiter und kann die Antworten auch besser einschätzen.

  • Kann man den ChatGPT dazu bringen, auch die Quellen mitzuliefern, auf die sich seine Behauptungen stützen?

    Würde man bei einem menschlichen Gesprächspartner ja auch machen (sollen).

    Man kann nach Quellen fragen, aber teilweise sind die dann auch erfunden und nur im Stil einer wissenschaftlichen Quellenangabe.

    Das soll die Alternative mit Bing von Microsoft angeblich bald besser machen und richtige Quellen liefern.

  • produziert auf eine Anfrage schlicht einen Text, der wahrscheinlich so oder so ähnlich von einem Menschen kommen könnte

    Das meine ich mit "behaupten". Es wird eine Antwort gegeben, eine Aussage gemacht. Einen Menschen kann ich nun fragen, woher er das weiß und je nach Antwort ("Der Schwager meines Gartennachbarn kennt jemanden, der ..." oder "Steht in Brehms Tierleben auf Seite 34") nehme ich die Aussage ernst oder nicht.

    Man kann nach Quellen fragen, aber teilweise sind die dann auch erfunden und nur im Stil einer wissenschaftlichen Quellenangabe.

    Na das ist doch was! Stelle ich fest, dass die behauptete Quelle gar nicht existiert oder voll trüben Wassers ist, dann weiß ich auch den Glaubwürdigkeitsgehalt der Aussage einzuschätzen. Ist die Quelle jedoch seriös, dann kann ich die Aussage überprüfen.

    Omnia vincit lectulus pensilis.

  • Weil's zum Thema passt: https://arstechnica.com/information-te…ictory-over-ai/

    Der zentrale Punkt in den Artikel ist genau das, was ich weiter oben schon angedeutet hatte - Maschinenlernen in seiner heutigen Form ist nicht im den Sinne "intelligent", denn es versteht nicht, was hinter den statistischen Mustern steht, die es erkannt hat. Deswegen können derartige Programme zwar teilweise wirklich beeindruckende Ergebnisse liefern, liefern aber eben teilweise nicht weniger beeindruckenden Unsinn.

  • Ich habe ChatGPT gefragt, "Warum taugen die Ergebnisse von ChatGPT nichts?"

    Erst hat es gesagt, dass eine KI nicht für alles verantwortlich sein kann, jetzt ist es beleidigt und redet nicht mehr mit mir, das war die letzte Meldung:

    OpenAI

    Hoppla!, da ist etwas schief gelaufen

  • Ich habe ChatGPT gefragt, "Warum taugen die Ergebnisse von ChatGPT nichts?"

    Erst hat es gesagt, dass eine KI nicht für alles verantwortlich sein kann, jetzt ist es beleidigt und redet nicht mehr mit mir, das war die letzte Meldung:

    OpenAI

    Hoppla!, da ist etwas schief gelaufen

    Mein Mann hat die KI neulich gefragt, wer hinter ihrer Programmierung stecke. Daraufhin kam eine ausführliche Antwort, die u.a. Elon Musk und weitere Namen aufgeführt hat, KI hat sich aber sehr schnell verbessert und die Namen wieder rausgeschmissen. Fanden wir auch eine spannende "Reaktion".

  • Früher konnte man sein Missfallen nur durch die Zerstörung der Tastatur zum Ausdruck bringen, heute kann man spontan die KI beschimpfen und die ist dann sogar richtig beleidigt - das ist doch mal ein echter Fortschritt (auch für die geschundenen Tastatur)

  • Problematisch werden solche Chat-Bots aus meiner Sicht erst, wenn

    • man die Antworten nicht kritisch hinterfragt
    • sie gezielt so manipuliert würden, dass Menschen dadurch gezielt gesteuert werden sollen

    Insbesondere der zweite Punkt scheint mir wichtig, je nach zukünftiger Entwicklung.

    Ansonsten finde ich total faszinierend, was dieser ChatGPT drauf hat. Wenn man einigermassen intelligent zurückfragt, dann kommt man oft weiter und kann die Antworten auch besser einschätzen.

    Im Grunde ist der Chatbot ein vereinfachtes Suchinterface mit aufgemotzter Ergebnis-Synthese.

    Wäre cool mal ein Modell mit Hängematten / Outdoor Seiten zu füttern.

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!