JSFP541: Gedanken über KI

Ich denke über KI-Nutzung nach und finde es immer noch doof.

Die Dauer der Episode 0:14:39Diese Episode erschien am 12. April 2026 um 9:31Downloads 544 Downloads

 
Ein Blogpost über KI-Nutzung hat mich zu dieser Platzhalter-Episode inspiriert, in der ich über meine eigene KI-Nutzung nachdenke und ein kleines Experiment starte.

Diese Episode hat 7 Kapitelmarken und jede von ihnen ist durchschnittlich ca. 2 Minuten und 5 Sekunden lang.

Teilen auf

Shownotes:

Stefan Pfeiffers Blogpost

 

Transkription der Episode anzeigen

0:00:10–0:00:13
Moin und herzlich willkommen zu Jörn Schaars feinem Podcast.
0:00:13–0:00:17
Das hier ist eine Platzhalter-Episode, die habe ich mir vor einigen Tagen hingelegt,
0:00:17–0:00:21
für den Fall, dass ich irgendwann mal nicht dazu komme, eine Episode zu veröffentlichen.
0:00:22–0:00:27
Und das Thema ist künstliche Intelligenz. Ich mache mich da im Podjournal gerne
0:00:27–0:00:33
ein bisschen drüber lustig, weil sie einem ja nun wirklich gerade an allen Ecken
0:00:33–0:00:35
und Enden des Internets reingedrückt wird.
0:00:36–0:00:40
Aber jetzt habe ich einen Blogpost gelesen von jemandem, der sehr viel KI einsetzt.
0:00:41–0:00:46
Da habe ich gedacht, ich könnte mal drüber nachdenken, was da bei mir drin ist.
0:00:46–0:00:53
Der Typ heißt Stefan Pfeiffer und er nutzt KI zum Beispiel für Blogbeiträge.
0:00:53–0:00:58
Da beschreibt er dann dem LLM seine Grundthese, die gewünschten Aspekte und
0:00:58–0:01:02
auch so die Ausrichtung und darauf basierend bekommt er dann einen strukturierten
0:01:02–0:01:04
Entwurf mit Überschriften und Absätzen.
0:01:04–0:01:08
Das überarbeitet er, kürzt, ergänzt und passt sie an seinen persönlichen Stil
0:01:08–0:01:11
an. Dann hat er auch noch einen Podcast, „9 von 9“ heißt er.
0:01:12–0:01:16
Da unterstützt ihn die KI bei der Auswertung von Transkripten,
0:01:16–0:01:20
extrahiert Kernaussagen, strukturiert die vor, schlägt Absätze für Blogbeiträge vor.
0:01:21–0:01:25
Er überprüft dann nochmal Zitate, bearbeitet den Text und fügt Kontext oder
0:01:25–0:01:26
persönliche Anmerkungen hinzu.
0:01:26–0:01:30
Sein Podcast-Kompagnon veröffentlicht den Podcast an sich und er macht dann
0:01:30–0:01:35
bei sich im Blog nochmal einen begleitenden Text dazu. Um diesen Podcast nun
0:01:35–0:01:39
vorzubereiten, nutzt er NotebookLM, um ausgewählte Quellen zu analysieren.
0:01:39–0:01:44
So kriegt er einen Gesprächsleitfaden raus, der dann als Grundlage dient.
0:01:45–0:01:49
Für Titelbilder hat er sich einen Styleguide entwickelt, der auf Bauhaus und
0:01:49–0:01:51
Kubismus basiert und eine feste Farbpalette vorsieht.
0:01:52–0:01:55
Und das dient dann als Basis für die Generierung der Bilder,
0:01:55–0:01:57
damit die einen einheitlichen Look bekommen.
0:01:57–0:02:03
Und dann kommt er noch zu Social Media Teasern. Da nimmt er den fertigen Blogbeitrag,
0:02:03–0:02:05
und gibt die wieder an eine KI,
0:02:06–0:02:10
bekommt da zwei bis drei Varianten und er nutzt diese Vorschläge,
0:02:10–0:02:13
um neue Perspektiven oder Formulierungen zu entdecken, mischt sie,
0:02:13–0:02:14
formuliert sie selber um.
0:02:14–0:02:19
Und dann macht er noch was mit 60 Sekunden Videos für YouTube und TikTok mit
0:02:19–0:02:21
KI-Voice-Over-Teasern.
0:02:22–0:02:26
Die Gedanken aus dem Blogbeitrag zuspitzen, habe ich mir nicht angeguckt,
0:02:26–0:02:28
weiß ich nicht, habe ich nur gelesen.
0:02:29–0:02:35
Und jetzt nutzt er also dafür ChatGPT, Claude, LeChat und Perplexity.
0:02:36–0:02:40
Und er betont dabei in diesem Artikel, dass KI für ihn Routinearbeit übernimmt,
0:02:41–0:02:44
während er selber die endgültige Kontrolle über Inhalt, Stil und Fakten behält.
0:02:45–0:02:51
Ich finde das beim Lesen, also er erklärt das sehr viel ausführlicher, als ich das jetzt tue.
0:02:52–0:02:54
Und er hat sich da ganz offensichtlich sehr viele Gedanken drum gemacht.
0:02:54–0:03:02
Trotzdem finde ich persönlich diesen starken Einsatz von KI ein bisschen unreflektiert.
0:03:02–0:03:05
Ich finde, er gibt da einfach relativ viel aus der Hand.
0:03:06–0:03:08
Aber darum soll es eigentlich gar nicht gehen, sondern das ist einfach ja nur
0:03:08–0:03:11
eine Inspiration für diese Podcast-Episode, wo ich drauf gucken möchte,
0:03:12–0:03:16
wo setze ich eigentlich KI ein und könnte mir das vielleicht doch irgendwas
0:03:16–0:03:20
bringen. Dafür lasse ich jetzt natürlich eine ganze Menge außer Acht.
0:03:20–0:03:23
Das sind zum einen medienethische Fragen,
0:03:24–0:03:29
also sprich mein eigener Anspruch an meine Inhalte und natürlich das ganze große
0:03:29–0:03:35
Thema Urheberrechtsverletzungen beim Training der Sprachmodelle und ich lasse
0:03:35–0:03:38
auch außer Acht den Strom- und Wasserverbrauch,
0:03:38–0:03:44
der bei KI einfach unfassbar groß ist und allein deswegen scheidet der Einsatz
0:03:44–0:03:48
von KI für solche trivialen Sachen wie Blogposts oder Podcasting eigentlich aus.
0:03:49–0:03:51
So, das einfach mal so zur Seite gesetzt.
0:03:52–0:03:58
Ich setze KI in der Podcastproduktion tatsächlich ein bisschen ein in der Form,
0:03:59–0:04:06
dass ich standardmäßig Podcastepisoden durch Auphonic transkribieren lasse. Die benutzen da Whisper.
0:04:07–0:04:13
Das ist ein LLM, was bei denen lokal auf dem Server läuft. An ganz faulen bzw.
0:04:14–0:04:19
einfallslosen Tagen lasse ich dieses Ergebnis dann automatisch auch noch an Chat-GPT durchreichen.
0:04:20–0:04:24
Da kommt dann eine Zusammenfassung raus oder Kapitelmarken.
0:04:24–0:04:29
Die Zusammenfassungen sind meistens richtig schlecht, weil dieses LLM in der
0:04:29–0:04:31
Regel Zusammenhänge nicht wirklich erkennt.
0:04:31–0:04:37
Nicht erkennt, wer spricht da eigentlich? Spreche ich mit Gesche oder über Gesche?
0:04:38–0:04:41
Relativ häufig kommt da großer Murks raus. Was sehr gut funktioniert,
0:04:41–0:04:42
wiederum sind die Kapitelmarken.
0:04:43–0:04:46
Das heißt aber nicht, dass ich das jetzt standardmäßig immer machen lasse,
0:04:47–0:04:52
einfach weil beim Schneiden ich es total unaufwendig finde, in Ultraschall auch
0:04:52–0:04:55
noch Kapitelmarken reinzuschreiben. Das ist eine Sache von Sekunden.
0:04:56–0:04:59
Und was ich gelegentlich jetzt schon mal gemacht habe im Podjournal,
0:04:59–0:05:05
dass ich Zitate durch künstlich generierte Stimmen habe sprechen lassen.
0:05:05–0:05:11
Das liegt einfach am Produktionsfluss. Ich will jetzt nicht ständig irgendwie
0:05:11–0:05:15
Leute aus dem Freundeskreis nerven: „Kannst du mir mal hier drei Sätze einsprechen?“
0:05:15–0:05:18
Wenn ich das Podjournal produziere, dann setze ich mich hin und dann möchte
0:05:18–0:05:23
ich das in einem durchmachen, schreibe meinen Text und wenn ich dann mein Zitat
0:05:23–0:05:26
habe, was vertont werden muss, was ich nicht selber zitieren möchte,
0:05:27–0:05:30
dann mache ich das halt schnell. Das geht wirklich dann schneller.
0:05:31–0:05:35
Das mache ich auch transparent. Das ist nicht gut, mein eigener Anspruch,
0:05:35–0:05:40
daran gilt ja eigentlich weiter, aber das ist halt einfach eine echte Zeitersparnis.
0:05:41–0:05:46
Und jetzt habe ich mal gedacht, ich probiere mal aus aufgrund dieses Blogposts,
0:05:46–0:05:53
was würde denn passieren, wenn ich ein LLM-Teaser-Texte für Social Media machen lassen würde.
0:05:56–0:05:59
Er schreibt ja, dass er dadurch wahnsinnig viel Zeit einspart.
0:05:59–0:06:06
Also habe ich mal Mistral ausprobiert. Das ist ein LLM, was aus Europa kommt,
0:06:06–0:06:08
in Frankreich irgendwie gemacht wird,
0:06:08–0:06:11
das mir schon mehrfach empfohlen worden ist, unter anderem von Dirk,
0:06:11–0:06:16
der sich sehr gut mit KI auskennt und da auch ein Master dazu gemacht hat.
0:06:16–0:06:20
Da bin ich jetzt erstmal überzeugt, dass ich da ganz gut beraten bin,
0:06:21–0:06:24
wenn ich mich mit KI auseinandersetzen möchte, dass ich dann dahin gehe.
0:06:24–0:06:28
Und jetzt habe ich also mal gedacht, ich nehme jetzt mal ein Transkript von
0:06:28–0:06:32
einer Podcast-Episode, konkret von Jörn Schaars feinem Podcast,
0:06:33–0:06:39
Episode 539 und lasse mal dieses LLM, Mistral,
0:06:40–0:06:44
einen Teaser für Social Media generieren.
0:06:45–0:06:49
Wollen wir ehrlich sein, der erste Versuch hat mir gezeigt, dass ich dadurch
0:06:49–0:06:51
überhaupt keine Zeit spare.
0:06:52–0:06:57
Das hat länger gedauert, mit diesem Ding zu chatten und immer wieder zu sagen,
0:06:57–0:07:01
nee, mach es mal so, ich hätte doch lieber das oder leg mal mehr Fokus darauf,
0:07:02–0:07:05
als das Ergebnis dann selber zu schreiben.
0:07:05–0:07:09
Und mit dem Ergebnis war ich auch nur so mittelzufrieden, also da will ich ganz ehrlich sein.
0:07:11–0:07:14
Und dann habe ich gedacht, okay, du kannst es ja nicht bei einem Versuch belassen,
0:07:14–0:07:18
Und habe gedacht, vielleicht könnte ich durch eine konsequentere Nutzung ja
0:07:18–0:07:23
tatsächlich mittelfristig Zeit einsparen, wenn ich das nicht immer wieder neu machen müsste.
0:07:24–0:07:29
Mistral hat zum Beispiel so eine Agentenfunktion, da kann man also schon mal
0:07:29–0:07:31
ein Set von Anweisungen festlegen.
0:07:33–0:07:39
Zum Beispiel die Prompts und kann die als so eine Art Vorlage hinterlegen und
0:07:39–0:07:42
hat dann einen eigenen Chatbot, der nur diesen Anweisungen folgt,
0:07:43–0:07:47
den man neben dem normalen Chatbot von Mistral benutzen kann.
0:07:48–0:07:53
Sprich, das, was mich im ersten Experiment ungefähr 10 Minuten für ein mittelgutes
0:07:53–0:07:56
Ergebnis gekostet hat, das wäre dann schon fertig.
0:07:57–0:08:00
Also der Prompt dafür wäre schon fertig und ich würde im Prinzip sofort ein
0:08:00–0:08:05
mittelgutes Ergebnis bekommen und hätte dann ungefähr die zwei Minuten gespart,
0:08:05–0:08:11
um den Text selber zu schreiben und vermutlich vier bis sieben nicht mehr genutzte
0:08:11–0:08:12
Gehirnzellen dadurch verloren.
0:08:13–0:08:16
So, dieses erste Experiment, man will ja wissen, worüber man spricht,
0:08:17–0:08:18
das war insofern ernüchternd,
0:08:18–0:08:22
dass man prompt nicht eindeutig war, der lautete:
0:08:23–0:08:26
„Iich werde dir die Transkriptionen von Podcast-Episoden zur Verfügung stellen.
0:08:26–0:08:29
Ich möchte, dass daraus jeweils drei Teaser-Texte für Social Media entstehen.
0:08:29–0:08:33
Diese sollten die Episode individuell beschreiben und je eine Kernaussage der
0:08:33–0:08:34
jeweiligen Episode zum Thema haben.
0:08:35–0:08:38
Ich möchte sie später in Textform veröffentlichen. Weil es mein Podcast ist,
0:08:38–0:08:40
sollen die Teaser in der Ich-Form geschrieben sein.“
0:08:40–0:08:44
Als Leitplanken habe ich mitgegeben: „Benutze als Quelle für den jeweiligen Teaser
0:08:44–0:08:47
ausschließlich die hochgeladene Transkription, verzichte bitte auf Bewertungen.“
0:08:47–0:08:51
Und der Ton, das kann man auch noch auswählen, sollte „reif“ und „pragmatisch“ sein.
0:08:52–0:08:55
Im ersten Versuch kamen dann drei verschiedene Texte mit der gleichen Stoßrichtung,
0:08:56–0:08:59
also sprich, die haben den gleichen Aspekt gehabt, aber eben unterschiedliche Formulierungen.
0:09:00–0:09:02
Das habe ich dann nochmal verfeinert, habe also geschrieben,
0:09:02–0:09:05
dass es drei unterschiedliche Teaser werden sollen und dann war ich am Ende
0:09:05–0:09:07
tatsächlich einigermaßen zufrieden.
0:09:08–0:09:11
Und dann bin ich aber schon ins erste Limit gelaufen.
0:09:12–0:09:16
Also da gibt es irgendwie so ein Modul, was man da benutzen kann,
0:09:16–0:09:22
wenn man eine Textdatei hochlädt, dass er diese Datei untersucht und daraus dann arbeitet.
0:09:22–0:09:25
Und das ist eben limitiert auf,
0:09:25–0:09:28
habe ich vergessen, keine Ahnung, auf jeden Fall wird man dann aufgefordert,
0:09:28–0:09:34
die Pro-Version abzuschließen und die kostet in der monatlichen Abrechnung 17,84
0:09:34–0:09:38
Euro oder umgerechnet bei jährlicher Abrechnung 14,27 Euro im Monat.
0:09:39–0:09:44
Das wäre mir zu teuer, wenn es lediglich darum geht, Social Media Teaser für
0:09:44–0:09:46
eine oder zwei Episoden im Monat zu haben.
0:09:48–0:09:53
Also habe ich den Text direkt ins Chatfeld kopiert, das war dann einfacher.
0:09:53–0:09:59
Auch da kam ich dann irgendwann an so ein Limit, das wird aber nach 20 Minuten zurückgesetzt.
0:09:59–0:10:05
Also für das, was ich dann da raus haben wollen würde, fand ich diese Zeit dann wiederum ganz okay.
0:10:06–0:10:11
Und jetzt habe ich also drei Ergebnisse, wie gesagt, die ich vollkommen okay
0:10:11–0:10:13
fand für die Episode 539
0:10:13–0:10:18
wäre Variante 1: „Ich habe mein Home Assistant Dashboard so optimiert,“
0:10:18–0:10:20
„dass es mir jetzt nicht nur zeigt, wann der nächste Zug fährt,“
0:10:20–0:10:24
„sondern auch wenn gar keine Züge unterwegs sind, inklusive Link zur Ausfallseite.“
0:10:24–0:10:27
„Praktisch für alle, die wie ich auf die Bahn angewiesen sind und keine Lust“
0:10:27–0:10:30
„auf böse Überraschungen haben.“ Kann man gut machen.
0:10:31–0:10:35
Das nächste Ding wäre: „Unser erster Campingausflug der Saison führte uns nach“
0:10:35–0:10:38
„Plön auf einen Platz mit klaren Regeln, die auch wir respektieren.“
0:10:38–0:10:40
„Kein Seezugang für Hunde, aber alles top gepflegt.“
0:10:40–0:10:43
„Hauptsache der Wohnwagen steht und wir konnten in Ruhe Schach spielen.“
0:10:43–0:10:46
„Nur die Hühnerüberwachung zu Hause lief nicht ganz nach Plan.“
0:10:46–0:10:48
Also das finde ich wirklich okay.
0:10:49–0:10:53
Und dann zuletzt „Katharina Reiche blockiert als Wirtschaftsministerin die Energiewende“
0:10:53–0:10:55
„und setzt auf fossile Energien.“
0:10:55–0:10:58
„Wer so die Klimaziele gefährdet, gehört nicht in ein Amt, das unsere Zukunft gestaltet.“
0:10:59–0:11:02
„Mein Appell, rücktritt jetzt, bevor weitere Zeit verloren geht.“
0:11:02–0:11:04
„Es geht mehr als nur um Politik.“
0:11:04–0:11:09
Das wiederum ist natürlich auch erstmal in sich gut, gibt dem ganzen Ding aber
0:11:09–0:11:10
natürlich einen politischen Spin.
0:11:10–0:11:14
Wenn ich sowas lesen würde, dann würde ich eine Podcast-Episode monothematisch
0:11:14–0:11:17
nur dazu erwarten und das ist ja bei den anderen Texten auch.
0:11:17–0:11:22
Die sind okay, beziehen sich aber immer ja nur auf einen Themenaspekt,
0:11:22–0:11:23
ein Thema in dieser Episode.
0:11:24–0:11:29
Also man könnte das machen, wenn man dann auch noch passende Ausschnitte daraus
0:11:29–0:11:32
präsentiert und das dann regelmäßig bei Social Media teilt.
0:11:32–0:11:36
Also sprich, mehr als einmal direkt nach Erscheinen der Episode.
0:11:36–0:11:40
Das war jetzt mal spannend, das auszuprobieren und ich finde auch dieses Agenten-Ding
0:11:40–0:11:45
relativ spannend, auch wenn ich mir angucke, was man damit noch alles verbinden kann.
0:11:46–0:11:49
Das will ich natürlich nicht. Ich will halt nicht einer KI Zugriff auf mein
0:11:49–0:11:55
Postfach bei Google geben oder auf meinen Kalender. Also ich will diese Agentic
0:11:55–0:11:59
AI, diesen echten Assistenten ja eigentlich überhaupt gar nicht haben.
0:11:59–0:12:03
Das ist mir ein zu großer Eingriff in mein Leben. Ich will das nicht.
0:12:04–0:12:08
So soll einfach, wenn ich mit diesem Ding mal chatten kann,
0:12:09–0:12:13
um irgendwie, keine Ahnung, YAML-Code für eine Home Assistant Automation da
0:12:13–0:12:17
rauszuholen oder halt diesen Quatsch mit Social Media Teasern zu machen,
0:12:18–0:12:20
das reicht auch vollkommen aus.
0:12:20–0:12:24
Das bleibt natürlich trotzdem die grundsätzliche Überlegung,
0:12:25–0:12:28
Schrägstrich Ablehnung, ich möchte eigentlich das nicht benutzen,
0:12:28–0:12:32
weil ich finde also einerseits,
0:12:32–0:12:38
ja, das sind okaye Teaser, die man machen kann, die auch funktionieren würden.
0:12:39–0:12:43
Aber die kann ich halt auch selber schreiben. Es wird dann halt ein bisschen
0:12:43–0:12:47
dauern. Wie gesagt, die Zeitersparnis für mich an dieser Stelle vielleicht zwei Minuten.
0:12:47–0:12:50
Nun bin ich aber auch jemand, der relativ fit ist mit Texten,
0:12:51–0:12:52
weil das halt mein Beruf ist.
0:12:55–0:13:00
Also es kommt immer darauf an, wen man fragt. In meinem Fall werde ich dabei
0:13:00–0:13:04
bleiben, dass ich KI sehr, sehr, sehr, sehr dosiert einsetze.
0:13:05–0:13:08
Aber wie sieht es denn bei euch aus? Würde mich echt mal interessieren.
0:13:08–0:13:09
Schreibt mal in die Kommentare.
0:13:09–0:13:15
Was so eure Variante davon ist und lasst uns mal darüber diskutieren.
0:13:15–0:13:20
Wie gesagt, ich habe jetzt hier ganz bewusst die ganzen Fragen nach Strom- und
0:13:20–0:13:24
Wasserverbrauch beiseite gelassen, ebenso die Medienethik.
0:13:25–0:13:31
Das ist ein ganz eigenes Problem, das mir vollkommen bewusst ist und das ich
0:13:31–0:13:34
jetzt für dieses Experiment mal zur Seite gestellt habe.
0:13:34–0:13:40
Und wenn man sich einfach anguckt, wie unreflektiert KI eingesetzt wird,
0:13:41–0:13:45
eben man sieht es ja an diesem Artikel, den ich da auch verlinken werde,
0:13:46–0:13:47
das ist ja nur ein Symptom davon.
0:13:48–0:13:52
Also wie häufig ich jetzt inzwischen von Leuten höre: „ja, ich habe mal ChatGPT“
0:13:52–0:13:56
„gefragt“, das finde ich sehr, sehr erschreckend.
0:13:57–0:14:03
Ich sehe es ja bei der Themenauswahl für das Podjournal, wo überall irgendein
0:14:03–0:14:06
KI-Tool jetzt auf einmal angepriesen wird, was das alles Tolles kann.
0:14:08–0:14:14
Also, ja, sehe ich nicht, brauche ich nicht, kann weg, das muss ich nicht haben.
0:14:15–0:14:19
So, aber wie gesagt, wie ist es denn bei euch? Lasst mich das mal wissen,
0:14:20–0:14:24
schreibt gerne in die Kommentare auf meine-URL-ist-laenger-als-deine.de oder
0:14:24–0:14:28
kommentiert direkt unterhalb dieses Postings im Fediverse.
0:14:28–0:14:32
Und abgesehen davon bin ich der Meinung, dass Katharina Reiche als Wirtschaftsministerin
0:14:32–0:14:35
zurücktreten sollte, bis sie das tut oder bis eine weitere Folge erscheint von
0:14:35–0:14:37
Jörn Schaars feinem Podcast: Alles Gute.

 

Das Kleingedruckte:

Diese Jörn Schaars feiner Podcast-Episode wurde am 27.03.2026 aufgenommen und am 12.04.2026 veröffentlicht. Sie steht unter Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)-Lizenz. Zu hören ist: Jörn Podcastcover: Siegfried Fock, Tobias Migge Musik: Jason Shaw („Jenny’s Theme„, CC-BY-SA)

2 Kommentare zu „JSFP541: Gedanken über KI“

  1. Jens

    Moin.
    Beruflich setze ich KI gar nicht ein. Privat keine generative KI, andere nur zu Recherchezwecken – und da aber immer häufiger, da
    1) Suchmaschinen gefühlt immer nutzloser werden und
    b) ich auch auf recht vage Fragen noch sinnvolle Antworten bekomme.
    Natürlich immer noch mit dem Abgleich persönliches Wissen und zumindest einen Blick darauf, welche Quellen die KI – in meinem Fall Perplexity – genutzt hat. Ähnlich wie Wikipedia bei ernsthaften Fragen also der Start des Lernens/der Recherche, nicht das Ende.

    Zwei besondere persönliche Nutzungsfälle:
    i. Recherche zu Long Covid. Da stehen die Informationen in mehreren Sprachen so fragmentiert im Netz, da käme ich mit konventioneller Suche auf keinen grünen Zweig. Insbesondere, wenn die Ausdauder sowieso schon eingeschränkt ist.
    2. NotebookLM zur Recherche in abgeschlossenen Ressourcen, z.B. Regeln und Weltbeschreibungen im Rollenspiel. Habe ich alles einmal schon selbst gelesen, aber 600+ Seiten bleiben nicht aktiv im Gedächtnis.

    Reines Bauchgefühl bei Perplexity: Im Laufe meiner Nutzungszeit habe ich den Eindruck, dass das Ding angefangen hat mehr zu labern. Also etwas weniger auf den Punkt Informationen liefert als zu Anfang. Weiß aber nicht, ob das an den Themen liegt oder Änderungen beim Dienst.

  2. Also ich nutze KI überwiegend für Programmierungen in Home Assistent.
    Denn über Foren bekommt man meist bei Fragen eher ein RTFM oder man wird auf 40 Minuten Youtube verwiesen und da habe ich einfach keine Lust drauf.
    Hin und wieder phantasiert ChatGPT, aber wenn man es drauf aufmerksam macht dass das nicht geht klappt es fast immer.

    Apropos Home Assistent: Du hast hier ja auf eine Folge verwiesen in der Du Deinem Home Assistent die Verknüpfung zur Bahn-Auskunft beigebogen hast.
    Ich nehme an via der Integration db-infoscreen von FaserF. Arbeitet die bei Dir derzeit zuverlässig? Bei mir gibt es derzeit sehr oft Ausfälle und ich bekomme keine Werte mehr.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Um von deinem eigenen Blog zu antworten, füge hier den Permalink zu deinem Antwort-Post ein. Deine Antwort erscheint (u. U. nach einer Freigabe) hier als Kommentar. Wenn du deine Antwort aktualisieren oder entfernen willst, kannst den Post bei dir einfach updaten oder löschen und die URL hier erneut eintragen. (Klingt komplizierter, als es ist, ehrlich!)