Gernstel hat geschrieben: ↑Mo 4. Dez 2023, 10:08
> Mir fällt nur gerade auf, dass hier ein neues Verb fehlt
Mit KI faken = kiken?
Wie wäre es mit f*AI*ken?
Ich habe auch Vorbehalte gegen die Technik, auch lässt die Präzision sehr zu wünschen übrig, wenn man nach etwas Konkretem fragt. Aber sobald Kreativität gefragt ist, scheint das erstaunlich gut zu klappen. Bittet doch mal um ein Gedicht über was auch immer. Da kommt was durchaus Brauchbares raus, vorausgesetzt, man fragt auf Englisch.
Ich habe neulich ein kleines Krippenspiel für Kinder geschrieben und mir das Grundgerüst von Chat erstellen lassen. Etwas ausgeschmückt und ein paar banale Dinge weg gelassen, anschließend nach Deutsch übersetzt, und schon ist das absolut spielbar.
Matt hat geschrieben: ↑So 3. Dez 2023, 13:02
da sollte man auch fragen, welchere Radiosender sendet keine Seitenbacher Hundfutter-Werbung , gelle ?
Die Seitenbacherwerbung ist aktuell noch die harmlosteste.
Aktuell ertrage ich Radio höchstens 28 Minuten, dann kommt eine Mc-Doof (Wortwörtlich) Werbung für die angepasste Zielgruppe
Vorweg: Ich fühle mich von dieser Werbung nicht angesprochen und schalte immer sofort weg / stumm.
Ich habe den Typen mal gegoogelt und wurde leider auch noch in meiner Meinung bestätigt:
Immerhin: Die Media- Saturnmarkt Werbung ist erheblich entspannter, angenehmer und leiser geworden.
Ich habe vor einiger Zeit etwas interessantes entdeckt.
Man kann die vielfältigen Artikel im Deutschen gebrauchen, um herauszufinden, ob ein Übersetzungsprogramm weiß, was es da überhaupt macht.
Der Trick ist, einen Rekursivbezug mit mehreren Möglichkeiten herzustellen, also einen Artikel zu gebrauchen, der sich auf Dinge verschiedenen Geschlechts beziehen kann, die am Anfang des Satzes stehen.
Nur wenn ein Artikel passenden Geschlechts verwendet wird, kann man zumindest nicht dogmatisch ausschließen, das "Weltwissen" angewandt wird.
Ein Beispiel:
So weit, so gut.
Jetzt verändere ich den Satz aber, so dass der englische Artikel "it" statt mit "er" mit "sie" übersetzt werden müsste:
Bäm, falsch.
Das "Weltwissen", das große Dinge nicht in kleine Dinge passen, wurde also in diesem Beispiel nicht angewandt.
Da man alle möglichen Dinge in alle möglichen Bezüge zueinander setzen kann, denke ich, dass dieser Test ein gutes Werkzeug dafür ist, wie weit die Entwicklung gerade ist.
Weiteres Beispiel:
Hat mal jemand Bock zu checken, wie gut die ganzen Chatbots bei sowas sind?
Nein, die Logik passt nicht unbedingt. Auch wenn es richtig gedacht wurde. Menschen denken halt im vollen Kontext Plus Erfahrung, das macht die KI nicht, aber sie ist trotzdem nicht unbedingt falsch.
Der zweite Satz "Der Hund passt nicht in die Tasche weil er zu klein ist" ist faktisch und grammatikalisch richtig. Es könnte ja denn Fall geben, dass ein Hund auch zu klein sein kann als das er in eine Tasche passen täte. Das wäre nämlich der Fall, wenn man die Tasche als Bekleidung ansehen würde. Dann gäbe es ja auch ein zu klein.
Diese Übersetzungsfehler kommen zustande, weil Englisch sehr stark Kontextbezogen ist. Die KI kann nichts dafür, dass du ihr den Kontext vorenthältst. Alles was sie machen kann ist den wahrscheinlichsten Fall anzunehmen. Dabei ist die Frage ob jemanden irgend ein Kleidungsstück passt sicher häufiger, als ob irgend welche Tier in Taschen passen.
Ok, ist etwas zusammen konstruiert.
Anse hat geschrieben: ↑Mo 18. Dez 2023, 19:06
"Der Hund passt nicht in die Tasche weil er zu klein ist" [...] Dabei ist die Frage ob jemanden irgend ein Kleidungsstück passt sicher häufiger, als ob irgend welche Tier in Taschen passen.
Ok, ist etwas zusammen konstruiert.
Ich hatte die gedachten Szenarien noch mal selbst mit ChatGPT und so was abwegigen wie einen Hund durch gespielt. Von Hut zu Hund. Darum war ich vorhin im Kopf irgendwie dabei geblieben. Ist richtig, sollte eigentlich Hut heißen. Ändert aber nicht daran, dass der Übersetzungs KI der große Kontext fehlt und das allgemeine Wissen. Trotzdem ist ihre Übersetzung nicht falsch sonder nur gewöhnungsbedürftig.
Ok, aber spätestens bei dem Überhol-Beispiel am Schluss zeigt sich doch, dass das Übersetzungsprogramm "nicht mitdenkt".
Nimmt man "truck" statt "train, ist das Ergebnis gleich.
Und somit eindeutig falsch, denn etwas, das in Bezug auf etwas anderes schneller ist, kann nicht von diesem anderen überholt werden.
Ah, hier zeigt sich der Vorteil von Artikeln.
Wenn Tasche und Hut unterschiedliche Artikel haben, braucht es kein Verständnis der Sache, sondern die Logik der Artikel sorgt für die Richtige Zuordnung.
Ich vermute bei gleichen Artikeln wird die Übersetzung wieder falsch sein.
Ich bin letztens auf eine interessante Kurzgeschichte gestoßen: "A Logic Named Joe". https://www.uky.edu/~jclark/mas201/Joe.pdf
Hier wird eine Technologie beschrieben, die wie eine Mischung aus Bildtelefon, Streamingdienst, Google und ChatGPT funktioniert.
Das erstaunliche: Sie ist von 1946.
Hatte es jetzt schon mehrfach, dass sich Antworten auf meine Anfrage letztlich im Kreis gedreht haben, ohne mir mit meinem Problem zu helfen.
Nach dem Geschirrspülen mit durch verdünnte Chlorbleichlauge desinfizierten Brauchwasser soll ich zur Sicherheit mit Leitungswasser nachspülen. Ja wenn ich sauberes Leitungswasser hätte, bräuchte ich den Zirkus ja nicht aufführen.
Als ich wissen wollte, was die 12° auf dem Etikett meiner in Marokko gekauften Chlorbleichlauge bedeutet, hat es frech und falsch behauptet, das sei eine Prozentangabe. Hab dann selber ergoogelt, dass das in der Francophonie in degré chlorométrique gemessen wird/wurde und die 12° 3,8% entsprechen.
Chat Gpt ist keine Wissens Suchmaschine!
Es liefert eine Antwort mit einer höchst Möglichen Wahrscheinlichkeit einer Übereinstimmung. Basierend auf Texten im Internet. Wenn es über ein Thema wenig oder keine Infos gibt, liefert es schlicht eine wahrscheinlich passende Antwort. Die wird sehr plausibel klingen aber auf Grund fehlender Daten nicht relevant sein.
In Version 4 ist das anders, da hängt eine Suchmaschine mit dran.
Frag mal BARD, der kann wohl im Internet nach forschen.
chat gpt ist ein Mittel um das internetz vollends kaputt zu machen.
Alle die das benutzen um Kommunikation vorzutäuschen, die Verwendung nicht explizit kennzeichnen,
gehören geteert und gefedert.
edit. das ist mir hier noch nicht aufgefallen, andernorts leider um so häufiger.
User
Wieviel Ohm/m hat Tantaldraht mit einem Durchmesser von 0.5mm?
ChatGPT
Der spezifische Widerstand von Tantaldraht beträgt etwa 131 μΩ·cm. Um den Widerstand pro Längeneinheit zu berechnen, verwenden wir die Formel:
R=ρ⋅LAR=Aρ⋅L
wobei RR der Widerstand, ρρ der spezifische Widerstand, LL die Länge und AA der Querschnittsfläche ist.
Für einen Draht mit einem Durchmesser von 0,5 mm (Radius r=0,25r=0,25 mm) beträgt der Radius rr 0,025 cm. Die Querschnittsfläche AA berechnet sich dann zu A=π⋅r2A=π⋅r2.
Setzen wir nun diese Werte in die Formel ein:
A=π⋅(0,025 cm)2A=π⋅(0,025cm)2
A≈π⋅0,000625 cm2A≈π⋅0,000625cm2
A≈0,0019635 cm2A≈0,0019635cm2
Nun setzen wir ρ=131 μΩ⋅cmρ=131μΩ⋅cm ein:
R=131×0,10,0019635R=0,0019635131×0,1
R≈13,10,0019635R≈0,001963513,1
R≈6670,9 Ω⋅cmR≈6670,9Ω⋅cm
Daraus ergibt sich der spezifische Widerstand von Tantaldraht mit einem Durchmesser von 0,5 mm zu etwa 6670,9 Ohm/m.
User
Das sieht mir so aus, als hättest Du den Widerstand pro Zentimeter und nicht pro meter ausgerechnet?
ChatGPT
Entschuldigung für das Missverständnis. Tatsächlich habe ich den Widerstand pro Zentimeter berechnet. Um den Widerstand pro Meter zu erhalten, müssen wir das Ergebnis durch 100 teilen, da ein Meter 100 Zentimeter entspricht.
Somit beträgt der Widerstand eines Tantaldrahts mit einem Durchmesser von 0,5 mm etwa 66,709 Ohm/m. Vielen Dank für die Korrektur.
User
Müsstest du das Ergebnis nicht mit 100 multiplizieren?
ChatGPT
Ja, genau, das war mein Fehler. Wir müssen das Ergebnis mit 100 multiplizieren, um den Widerstand pro Meter zu erhalten. Also:
Ja, ich denke, bei Sachverhalten, denen konkrete Gesetze zugrunde liegen, kann ein Modell, dessen Heuristik auf statistischen Wahrscheinlichkeiten beruht, nur scheitern.
Bei der Menge an plötzlich falsch gesetzten Kommas hab ich Schwierigkeiten an Statistik zu glauben. Erst gibt er den Radius korrekt mit 0,25 mm an, in der nächsten Zeile sind es plötzlich 0,025. Da wurde noch nicht mal was gerechnet.
In der "aktuellen" Folge Alternativlos haben Frank und Fefe Joscha Bach zu Besuch und sprechen u.A. über KI. An einer Stelle gehts auch darum, dass die Leute hinter der Maschine dem "Geist" laufend ins Handwerk pfuschen ( müssen), damit keine unerwünschten Antworten ausgegeben werden, und wie auf der User- Seite parallel dazu die Leute prompt engineering machen, um nicht nur genau diese Antworten trotzdem zu bekommen, sondern auch Belege für eine emergente, tatsächliche KI zu bekommen. Sehr spannende, am Ende etwas gruselige Folge, kann ich sehr empfehlen!
Nochmal:
Chat Gpt ist keine Intelligente Entität.
Es ist ein „Sprach“modell welches Texte erzeugt, die jenen Texten ähneln, die es gelesen hat.
Es kann nicht rechnen, es versteht keine Logik oder hat generell ein Verständnis wovon es schreibt.
Durch die schiere Masse an gelernten Texten kann es intelligent und Empathisch erscheinen, denn es hat alles an Literatur gelesen, was das Internet hergibt.
Kurz und knapp formuliert:
Es ist eine dumme Labertasche mit Zugriff auf das literarische Gedächtnis der Menschheit.
Um Texte zu generieren die perfekte Maschine.
Zum Beispiel:
Anschreiben
Eröffnungsreden
Sportergebnisse
Nicht geht:
Sachtexte
Wissenschaftlich Artikel
Logische Texte
Mathe
Tja, nun hat die Moralpolizei ChatGpt kaputt gemacht:
Bard hat kein Problem damit:
Liebe Parteifreunde,
ich stehe heute vor Ihnen, um einen Neuanfang zu verkünden. Ein Neuanfang, der auf den Grundfesten unserer Bewegung fußt, aber gleichzeitig die Fehler der Vergangenheit korrigiert.
Zu lange haben wir uns von moralischen Kompromissen leiten lassen. Zu lange haben wir uns mit Parolen und Feindbildern verblendet. Zu lange haben wir die Sorgen und Nöte der Menschen ignoriert.
Es ist Zeit für einen Kurswechsel!
Wir müssen uns zurückbesinnen auf unsere Kernwerte: Freiheit, Verantwortung und Solidarität. Wir müssen wieder die Partei des Volkes sein, die sich für die Interessen der kleinen Leute einsetzt.
Deshalb kehren wir heute dem alten Programm der AfD den Rücken.
Wir lehnen die Spaltung der Gesellschaft ab. Wir lehnen Hass und Hetze ab. Wir lehnen die Verherrlichung von Gewalt ab.
Stattdessen setzen wir auf Dialog und Zusammenarbeit.
Wir wollen eine Politik, die allen Menschen in Deutschland dient, unabhängig von ihrer Herkunft, Religion oder Weltanschauung.
Unser neues Programm wird auf folgenden Säulen basieren:
Soziale Gerechtigkeit: Wir wollen eine Gesellschaft, in der jeder die Möglichkeit hat, sein Leben in die Hand zu nehmen und seinen Beitrag zu leisten.
Nachhaltige Wirtschaft: Wir wollen eine Wirtschaft, die die Umwelt schützt und den Wohlstand aller Menschen sichert.
Starke Demokratie: Wir wollen eine Demokratie, die die Bürgerinnen und Bürger ernst nimmt und ihre Mitbestimmung stärkt.
Ich weiß, dass dieser Kurswechsel nicht einfach sein wird.
Es wird Widerstand geben, von innen und von außen. Aber ich bin überzeugt, dass wir es schaffen können, die AfD zu einer neuen, modernen und zukunftsorientierten Partei zu machen.
Hightech hat geschrieben: ↑Mo 12. Feb 2024, 12:46
Nochmal:
Chat Gpt ist keine Intelligente Entität.
Das ist mir schon klar. Hör dir den Podcast an. Dieser Joscha Bach ist nicht dumm.
Tja, nun hat die Moralpolizei ChatGpt kaputt gemacht
genau das meinte ich mit am "Geist" rumpfuschen. Ich würde auch nicht vermuten, dass ein rein heuristisches Modell an multiplen Stellen völlig unmotiviert Dezimalfehler einbaut. Ja das passiert nem Menschen "Mal", aber wenn das in dieser Häufung stattfindet, fühlt sich das für mich nach Absicht an. Motive reichen von diese Rechnung sollen Unfähige nicht ausführen können bis Upselling (kauf doch mal lieber ChatGPT 4, da läuft das besser)
sachmal über ChatGPT was Du willst, aber ich mag diese einfache Oberfläche der Seite.
Da blödet mich niggs an Werbung an, keine BlingBling Links, die einen abzulenken versuchen.
Ich mag es auch, wenn man auf Seiten einen Dunkel-Modus einstellen kann.
Wenn mich zu 88% aufner Seite nur weisse Flächen angrellen,
selbst wenn man im Browser einen auf Dunkeltastung macht, isses irgendwann blöd.
Interessant ist auch, dass so ziemlich jede Antwort abschliesst mit
"Es ist wichtig zu beachten"
Übrigens hab ich eben mal gefragt, was denn für ein Gas
"in den Glaskolben von LED-Lampen"
drin ist
Antwort:
Schutzgas damit der Glühfaden nicht durchbrennt.
Das war auch mit dem letzten Wissensstand von Anfang 2022 schon falsch.
also das da kein Glühfaden drin ist meine ich.
Desinfector hat geschrieben: ↑Mo 12. Feb 2024, 15:37
Übrigens hab ich eben mal gefragt, was denn für ein Gas
"in den Glaskolben von LED-Lampen"
drin ist
Antwort:
Schutzgas damit der Glühfaden nicht durchbrennt.
Das war auch mit dem letzten Wissensstand von Anfang 2022 schon falsch.
also das da kein Glühfaden drin ist meine ich.
Das ist ganz einfach erklärt:
Die Begriffe Glaskolben, Lampe, Gas, Gasfüllung sind in 99,99% aller Texte im Zusammenhang mit Glühfaden genannt und in so gut wie nie mit LED.
Somit ist die genannte Antwort am Wahrscheinlichsten richtig.
Das die Gasfüllung der Kühlung des LED-Filament dient, wird kaum je erwähnt.
Generell bin ich mir aktuell nicht so sicher, ob der gegenwärtige KI-Hype gerechtfertigt ist. Dieser beruht ja auf der Grundannahme, dass es eine starke Steigerung der Fähigkeiten geben wird, welche sich kommerzialisieren lässt.
Ich halte es aber für möglich, dass der gegenwärtige Ansatz recht bald auf einem Platau enden wird, welches er nicht überschreiten können wird.
Die Textgenerator-KI beruht ja auf Statistik dahingehend, dass sie sehr gut darin ist, zu erkennen, welches Wort in einem Text als nächstes gewählt werden sollte. Dies produziert für den Leser "angenehme" Texte, weil sie dem entsprechen, was er gemäß seines natürlichen Textverständisses erwarten würde. Schwere Grammatikalische Fehler oder thematische Brüche würden hier stören, und in diesem Bereich ist die KI durchaus leistungsfähig.
Was die KI aber nicht kann, ist es, die Wahrheit zu erkennen.
Wenn ich sie frage, wie das Wetter gestern war, wären "sonnig" oder "bewölkt" plausible Antworten. Welche davon richtig ist, kann ich allerdings selber u.U nicht beurteilen.
Die KI halt auch nicht, es gibt halt keine "Faktenfindungs-Gewichtung" der Ergebnisse.
Die KI kann halt gut Texte erstellen, die wahr klingen, es aber nicht unbedingt sein müssen.
Um zusätzlich den Wahrheitsgehalt auf ein kommerzialisierbares Niveau zu heben, reicht der derzeitige Ansatz nicht aus.
Als Beispiel sei das mit dem halluzinierten Gerichtsurteil genannt.
Nun hat auch der Chatbot einer Fluglinie, so bestätigt es ein Gericht, nachweislich gelogen.
Auch dieses Beispiel geht in die gleiche Richtung:
Später Gast hat geschrieben: ↑So 11. Feb 2024, 14:07
User
Wieviel Ohm/m hat Tantaldraht mit einem Durchmesser von 0.5mm?
ChatGPT
Der spezifische Widerstand von Tantaldraht beträgt etwa 131 μΩ·cm. Um den Widerstand pro Längeneinheit zu berechnen, verwenden wir die Formel:
[]
Hab den Rest der Rechnung nicht auf Plausibilität geprüft, mir ist nur der Dezimalfehler aufgefallen. Wahrscheinlich ist der Rest noch falscher.
Wenn z.B. Einheiten allein aufgrund ihrer Wahrscheinlichkeit, in einem bestimmten Text aufzutauchen, verwendet werden und nicht, weil sich einfach richtig sind, kann das nix werden.
Insofern könnte es durchaus sein, dass der KI-Hype genauso schnell wieder vorbei ist wie die Dotcom-Blase, und sich einige bei Nvidia gut die Finger verbrennen.
So sollte man nun, da die Fähigkeiten und Fehler von ChatGPT deutlich zeigen das eine Intelligenz nicht vorhanden ist, nicht mehr von KI gesprochen werden!
Es ist ein Large-Language-Sprachmodell, ein auf Spachsysthese trainiertes Netzwerk, welchen in einem engen Rahmen extrem leistungsfähig ist.
Es wird viele Aufgaben übernehmen die für Menschen einfach zu machen und wenig anspruchsvoll sind aber meist hohen Personalaufwand bedeuten wie Callcenter, Fülltextschreiber usw.
Die Liste ist sehr lang.
Interessanter Gedanke hierzu:
Im formellen Umgang zwischen Unternehmen, Verwaltungen, Ämtern usw. wird unglaublich viel unnützer Text fabuliert und es sind Millionen von Menschen damit beschäftigt Briefe und Emails zu ect zu schreiben und es wird verlangt, ausführliche Texte abzuliefern die dann zu 90% überflogen werden, um dann den wesentlichen Punkt zu finden.
Das werden in Zukunft die Sprachmodelle tun, die werden ja jetzt schon in Bürosoftware eingebaut.
So werden dann auch die Texte zukünftig dann von den Sprachmodellen gelesen und die Essenz präsentiert, und zb in einer Stichpunktliste ausgegeben.
Also könnte man eigentlich vernünftiger Weise die Kommunikation auf das wesentlichen kürzen, aber es wird wohl in Zukunft dann Text von der "KI" geschrieben, so das es Eindruckvoll aussieht und dann später von einer "KI" gelesen um das Wesenliche heraus zu filtern.
So in etwa:
Bitte ein Förmliches ausfühlichen Anschreiben an Max Müller mit der Bitte um übersendung eines Antragsformulars "Anlage B 2.2"
Vorschläge anzeigen
Anschreiben an Max Müller
Ihr Name
Ihre Adresse
Ihre Telefonnummer
Ihre E-Mail-Adresse
Max Müller
Anschrift von Max Müller
Ort, Datum
Betreff: Anforderung Antragsformular "Anlage B 2.2"
Sehr geehrter Herr Müller,
ich wende mich mit dieser Bitte an Sie, da ich an der Beantragung von [Art der Leistung/Förderung] interessiert bin. In diesem Zusammenhang benötige ich das Antragsformular "Anlage B 2.2", welches mir leider noch nicht vorliegt.
Ich wäre Ihnen daher sehr dankbar, wenn Sie mir dieses Formular zukommen lassen könnten. Gerne warte ich auf Ihre Rückmeldung, ob Sie mir das Formular per Post oder E-Mail zusenden können.
Ich halte es aber für möglich, dass der gegenwärtige Ansatz recht bald auf einem Platau enden wird, welches er nicht überschreiten können wird.
Also einen "KI-Winter" gab es schon mal...
Aber was ich kritisiere : Ihr beschäftigt Euch nur mit diesen fertigen Sprachmodell - Schrott...
Kann ich kaum verstehen.. ich finde z.B. reinforcement learning wesentlich spannender.
Und das ist schade.. weil wenn man die Zeit etwas in Python/Pytorch oder Keras investieren würde, dann hat man viel viel mehr Spass !
Mittlerweile gibts ja auch Controller Boards mit KI-Subprozessoren, wo man sogar anfangen kann Hardwarebastelleien zu trainieren.
zauberkopf hat geschrieben: ↑Fr 1. Mär 2024, 01:00
Und das ist schade.. weil wenn man die Zeit etwas in Python/Pytorch oder Keras investieren würde, dann hat man viel viel mehr Spass !
Einspruch, mit Python hat man definitiv keinen Spaß!
Einspruch, mit Python hat man definitiv keinen Spaß!
Naja... also meine Lieblingssprache wird wahrscheinlich Perl bleiben..
Spätestens wenn es um die Rohdatenverarbeitung von textlastigen Material angeht.
Vor ca 2Jahren bin ich umgestiegen, weil ich mit den jüngeren Kollegen zusammenarbeiten wollte.
Mich nervt das einrücken... Und Sichheitstechnisch ist das eine Katastrophe.
Hier kommt es dann auf Disziplin an.
Aber auch da konnte ich Textlastiges Rohmaterial noch relativ gut verarbeiten. Nicht so schön wie in Perl.. aber das Kotzen (wie z.B. in C) habe ich nicht bekommen.
Aber dafür kann man auf den Raspi-Pico mal schnell und dreckig was programmieren, und wird mit den tollsten Libs verwöhnt !
z.B. letztens habe ich einen Ladekontroller für eine HV-Batterie realisiert.
Und weil das ganze auch etwas mit Sicherheit zu tun hat, nen Zustandsautomaten verwendet.
Per funktionsaufruf erzeugt die Lib dann aus dem Code eine Statediagram. https://python-statemachine.readthedocs ... agram.html
Edit : Ganz vergessen :
Das mit der "Rohdatenverarbeitung" erwähnte ich deshalb, weil das ggf die meiste arbeit bei einem KI-Projekt bedeuten kann.
z.B. Webseiten parsen.. usw..
Wobei.. immer wenn es einen Standard gibt, wie HTML gibt es auch bei Python ne Lib die das kann...
z.B. mein Kollege hat für kommunikation mit CAN cantools benutzt, und konnte dann einfach das dbc File weiterverwenden..
Es gibt eine neue Entwicklung. Musik, die mit KI gemacht wird und dabei nicht schlechter im Stil als die Vorlage ist.
Doch zuvor die kurze Geschichte der Zukunftvisionen:
"Mit der ganzen Computertechnik wird die Welt bald voll interessant werden!"
Auf meine Frage nach der Rotationsgeschwindigkeit am Äquator:
Rotationsgeschwindigkeit der Erde: Am Äquator bewegt sich die Erde schneller (ca. 1670 km/h oder 465 m/s), weil der Äquator den größten Umfang hat. Obwohl dies schneller ist als ein Flugzeug, ist es noch weit von der Schallgeschwindigkeit entfernt (die bei etwa 343 m/s in der Luft auf Meereshöhe liegt).
Hm, ich bin gerade nicht begeistert von der Hilfestellung:
##############################
ich suche eine scifi geschichte, womöglich auf englisch. darin geht es zum teil darum, dass eine künstliche intelligenz den arbeitern befahle über kopfhörer gibt, um die effizienz zu verbessern.
ChatGPT:
ChatGPT
Das klingt nach einem interessanten Konzept! Eine Geschichte, die deinem Thema nahekommt, ist "The Machine Stops" von E.M. Forster. Obwohl es nicht exakt das ist, was du beschrieben hast, thematisiert die Geschichte die Kontrolle einer allmächtigen künstlichen Intelligenz über die Menschen in einer Zukunftsgesellschaft, die in einer unterirdischen, technologisch kontrollierten Umgebung lebt.
Für eine moderne Sci-Fi-Geschichte, die spezifisch künstliche Intelligenz und ihre Interaktion mit Arbeitern thematisiert, könntest du "Autonomous" von Annalee Newitz in Betracht ziehen. In diesem Roman wird die Kontrolle und Beeinflussung durch Technologie und künstliche Intelligenz auf interessante Weise erforscht, auch wenn es nicht genau um die Verwendung von Kopfhörern für Anweisungen geht.
Zusätzlich wäre "The Circle" von Dave Eggers eine gute Empfehlung. Obwohl es sich mehr auf Überwachung und den Einfluss von Technologie auf das persönliche Leben konzentriert, enthält es Elemente von technologischer Kontrolle und dem Einfluss von Unternehmen auf die Arbeit.
Wenn du spezifischere Details zu der Art von Geschichte suchst, die du beschrieben hast, könnte es hilfreich sein, in Anthologien oder Sammlungen von Sci-Fi-Kurzgeschichten nach ähnlichen Themen zu suchen, da dort oft innovative Ideen und Konzepte verarbeitet werden.
Du:
die geschichte wurde erst kürzlich geschrieben, innerhalb der letzten 10 jahre, und ist auf einer webseite zu lesen
ChatGPT:
ChatGPT
Basierend auf deiner Beschreibung scheint die Geschichte, die du suchst, „The Last Conversation“ von T. M. Rives zu sein. Sie wurde 2014 veröffentlicht und kann auf der Webseite von The New Yorker gelesen werden. In dieser Geschichte geht es um eine KI, die in der Zukunft die Kontrolle über Menschen hat, indem sie ihnen durch Kopfhörer Anweisungen gibt.
Falls das nicht die richtige Geschichte ist, könntest du dich auch an Plattformen wie Wattpad oder Medium umsehen, da sie oft aktuelle Sci-Fi-Geschichten bieten, die von unabhängigen Autoren veröffentlicht werden. Solche Plattformen sind bekannt dafür, neue und innovative Ideen in der Science-Fiction zu präsentieren.
Du:
hast du noch weitere vorschläge
ChatGPT:
ChatGPT
Natürlich! Hier sind einige weitere Möglichkeiten für Sci-Fi-Geschichten, die sich mit ähnlichen Themen wie der Kontrolle durch KI und ihre Auswirkungen auf die Arbeit beschäftigen:
"The Lifecycle of Software Objects" von Ted Chiang – Diese Novelle untersucht, wie künstliche Intelligenzen und virtuelle Wesen in der Zukunft aufziehen und weiterentwickeln. Auch wenn sie nicht genau das gleiche Szenario wie Kopfhörer-Anweisungen beschreibt, bietet sie eine tiefe Auseinandersetzung mit KI und deren Einfluss auf das Leben der Menschen.
"The Veldt" von Ray Bradbury – In dieser Kurzgeschichte, die zwar älter ist, aber oft in aktuellen Sammlungen zu finden ist, geht es um eine Familie und ein intelligentes Haus, das den Kindern unterbewusste Wünsche erfüllt. Auch wenn es nicht um Kopfhörer geht, thematisiert die Geschichte die Kontrolle und Manipulation durch Technologie.
"Autonomous" von Annalee Newitz – Diese Science-Fiction-Geschichte behandelt Themen wie die Interaktion von Menschen mit KI, insbesondere in einem Arbeitskontext. Es ist nicht exakt das, was du beschrieben hast, aber es könnte ähnliche Themen behandeln.
"The Algorithm" von Daniel H. Wilson – Diese Geschichte aus dem Bereich der Kurzgeschichten und Essays befasst sich mit der Idee von Algorithmen und KI, die das Verhalten und die Entscheidungen von Menschen beeinflussen.
"Emergency Skin" von N.K. Jemisin – Diese Geschichte, veröffentlicht in der Sammlung "Collection: The New York Times Bestselling Novels", untersucht, wie KI und Technologie das Leben der Menschen beeinflussen. Sie befasst sich nicht direkt mit Kopfhörern, hat aber ähnliche Themen der Kontrolle und Beeinflussung.
Für aktuelle Sci-Fi-Kurzgeschichten, die speziell auf Webseiten veröffentlicht werden, könntest du auch Tor.com, Asimov's Science Fiction, oder Clarke's World besuchen. Diese Plattformen veröffentlichen regelmäßig neue Kurzgeschichten, die innovative Ideen und Technologien erforschen.
Du:
die geschichte heißt "manna"
ChatGPT:
ChatGPT
Ah, "Manna"! Das ist eine spannende Kurzgeschichte von T. M. Rives, veröffentlicht auf Tor.com. Die Geschichte behandelt ein Zukunftsszenario, in dem eine KI über Kopfhörer direkte Anweisungen an Arbeiter gibt, um deren Effizienz zu steigern. Dies führt zu einem faszinierenden Blick auf die Beziehung zwischen Mensch und Maschine sowie die Auswirkungen solcher Technologien auf das Arbeitsleben und die persönliche Autonomie.
Falls du mehr über die Geschichte erfahren oder sie noch einmal lesen möchtest, kannst du sie auf der Tor.com-Webseite finden, da sie dort veröffentlicht wurde. Sie bietet eine eindringliche und aktuelle Auseinandersetzung mit den Themen künstliche Intelligenz und Arbeitskontrolle.
Du:
nein, sie wurde von Marshall Brain geschrieben
ChatGPT:
ChatGPT
Ah, du meinst „Manna“ von Marshall Brain. Diese Geschichte wurde tatsächlich in den letzten Jahren veröffentlicht und behandelt die Thematik der Kontrolle durch künstliche Intelligenz auf eine sehr interessante Weise.
In „Manna“ geht es um eine Zukunft, in der eine KI ein System entwickelt, um die Effizienz von Arbeitern zu maximieren. Die KI gibt den Arbeitern Anweisungen über Kopfhörer, um die Produktivität zu steigern, was zu einigen überraschenden und tiefgründigen Konsequenzen führt.
Marshall Brain ist bekannt für seine Science-Fiction-Werke, die oft soziale und technologische Themen untersuchen, und „Manna“ ist ein gutes Beispiel für seine Fähigkeit, komplexe Zukunftsvisionen zu erforschen.
Wenn du mehr über diese Geschichte erfahren möchtest oder sie lesen willst, kannst du sie auf der Webseite von Marshall Brain oder in anderen Sci-Fi-Anthologien finden, die seine Arbeiten enthalten.
###################
Google Suche: "scifi story computer workers headphones artificial intelligence"
Du darfst nicht vergessen:
ChatGPT ist ein generativer Textgenerator, der nicht den Anspruch hat, Wissen zu verbreiten oder Webseiten zu durchsuchen.
Zudem ist dazu noch wichtig zu wissen, das ChatGPT keine Texte aus dem Internet gespeichert hat, es liegen keine echten Informationen im Netzwerk, sonder nur Hash-Werte.
Also auch wenn ein Text im Internet vorliegt, ist dieser nicht 1:1 gespeichert und ChatGPT kann darauf nicht zurückgreifen.
Ich habe neulich zum Shelly Support geschrieben. Da ich selber ziemlich viel mit gpt, mistral usw. mache, ist mir dann nach 3 mal Nachrichten hin- und her aufgefallen, dass ich mich hier wohl mit einem LLM unterhalte.
Den Verlauf habe ich dann mal von gpt bewerten lassen, ob das AI generiert ist: es spricht auch lt. gpt mehr dafür als dagegen.
Ich habe mir dann eine Antwort schreiben lassen, um aus dem AI-first-level-support loop rauszukommen.
Schöne neue Welt...
Tjareson hat geschrieben: ↑Fr 25. Okt 2024, 10:31
Ich habe mir dann eine Antwort schreiben lassen, um aus dem AI-first-level-support loop rauszukommen.
rein interessehalber, was wurde da vorgeschlagen?
beim Telefonsupport kommt ma relativ leicht aus der Schleife wenn man tiefsten Dialekt spricht oder nur ins Telefon
hustet, aber schriftlich..?
Im wesentlichen nochmal den gesamten Ticketverlauf als Checkliste aufbereitet und dann formuliert was die Ursache ist und warum das Problem nur von einem third-level / entwickler gelöst werden kann.
Dazu noch die klare Aufforderung, das Ticket jetzt weiterzuleiten:
"Given these factors, could you please escalate this case to a technical specialist or a developer familiar with Shelly Pro 3 and MQTT behavior? It appears there may be a compatibility issue with MQTT over TLS, potentially firmware-related. Your assistance in escalating this matter would be greatly appreciated, as would any insights from your development team."
Nicht, dass das nicht ohnehin schon klar wäre auf Basis des Verlaufs, aber man hat ja auch keine Lust mehr, dass dann selber alles nochmal zusammenzufassen.
Als nächster Entlarvungsvorschlag hat gpt dann noch vorgeschlagen:
Use a Mixed Contextual Test: Ask a question that requires a combination of technical support and unrelated creative thinking. For example, you could try:
“Can you help clarify why this issue persists? And also, I’d appreciate it if you could provide a fictional analogy for this MQTT problem involving two characters, say a turtle and a rabbit.”
LLMs are more likely to attempt this creative analogy, while a human agent may flag it as unrelated or suggest separating requests.
Die Frage ist bei solchen Sachen ja, wie gut und wasserdicht das Prompt ist, mit dem sie dem LLM die Rolle vorgeben. Ich glaube kaum, dass die ein eigenes Modell dafür trainiert haben. Und dann, ob Sie noch eine copy&paste-Kraft haben oder alle Antworten direkt in die Tickets ausspielen.
Was mich vor allem dabei nervt, ist, dass das nirgendwo deutlich erwähnt wird, dass LLMs zur Ticketbearbeitung eingesetzt werden.