Standard

Frage mich immer, was für ein verdrehtes Bild man von anderen Menschen haben muss, wenn man denkt, irgendjemand, let alone eine lose Gruppe von 100+ Leuten, würde dreidimensionales Schach spielen, indem sie auf positive Produkt-PR mittels „unsere Produkte sind so gut, dass sie euch alle vernichten können“ setzen.

Leute können andere Positionen haben. Das geht. Sie können von diesen überzeugt sein, auch wenn man selbst was anderes glaubt.

(aktuell wird hierüber gegrübelt: www.nytimes.com/2023/05/30/technology/ai-threat-warning.html )


Standard

Woher man weiß, wie man KI nutzen soll:

Die Kollegin hatte das Problem ziemlich genervt, und sie konnte mit ihrem Computer eigentlich schon umgehen — sie hatte nur diesen einen Schritt im Kopf nicht gemacht: das Problem einfach in Google eingeben.

Das bedeutet: Der Google-Workflow besteht eigentlich nicht aus drei, sondern aus vier Schritten — zwischen „Schritt 1: Ich habe ein Problem“ und „Schritt 2: Ich google das Problem“ hat sich etwas dazwischengeschmuggelt: „Schritt 1.5: Ich denke daran, dass ich das Problem googlen kann.“

Das klingt erstmal nach keiner großen Hürde, aber im Alltag begegnet sie uns ständig. Auch ich selbst als ach so stolzer Digital Native laufe teilweise monatelang mit kleinen Problemchen durchs Leben, bis ich mal auf die Idee komme, mich wirklich um sie zu kümmern (d.h. googlen).

Die Internet-Suchmaschine hatte also zwei große Hürden zur Verbreitung: Eine technische, und eine im Kopf der User. Die technische ist gelöst — Google funktioniert (einigermaßen). Aber das im Kopf, das ist immer noch in Arbeit.

Und das Gleiche passiert mit KI:

Auch ChatGPT ist nicht nur technisch limitiert. Sondern vor allem dadurch, wir wir mit ihnen umgehen.

Sehr guter Text über ChatGPT im Alltag.


Standard

„On the Internet, nobody knows you’re a dog“ ist etwas, das wir bis heute nicht gelöst haben. Kontext ist im Internet entweder klassisch (Regierungswebsite, alte Publikation, Marke, etc.) oder rudimentär bis nicht-existent. Was uns bei Social Media schon ein bisschen auf die Füße viel, wird mit LLMs und generativer KI allgemein (Bilder, Video, Audio) um ein Vielfaches negativ verstärkt, bei Input UND Output.

Und nein, weder rel=me noch Mitarbeiter, bei Twitter, TikTok und YouTube, die Verifications im Accord ausgeben, sind die Lösung.

Es braucht eine internetgenuine Lösung.

Also dezentral, offen und vielfältig.


Standard

Power and Weirdness: How to Use Bing AI – by Ethan Mollick:

„Don’t think of Bing as a search engine. It is only okay at search. But it is an amazing Analytic Engine. Indeed, Bing is at its most powerful, and most different from ChatGPT, when it is looking up data and connecting diverse sets of information together. It is often a startling good data analyst, marketer, and general business companion.“


Standard

Das ist interessant (siehe die Screenshots) und lässt mich nicht los, seit ich es vor ein paar Tagen gesehen habe:

„On the left is GPT-3.5. On the right is GPT-4.

If you think the answer on the left indicates that GPT-3.5 does not have a world-model….

Then you have to agree that the answer on the right indicates GPT-4 does. [..]

It’s pretty evident to me that we’re no longer in „stochastic parrot“ territory. GPT-4 is capable of genuinely reasoning about the world. It’s pretty dumb sometimes, and makes odd mistakes. But it does seem to have some emergent simple world-model.“

GPT-4 liegt bei solchen Aufgaben noch oft genug falsch, dass man sicher davon ausgehen kann, dass es kein Welt-Modell hat. ABER man sieht die Anfänge.


Standard

Solche Anekdoten sehe ich mittlerweile täglich:

„Everyone’s laughing at all the ChatGPT threads, but I (a man who can’t code), just built and shipped a functioning and IMO useful Chrome Extension in ~45 minutes using just that and @Replit – it was the weirdest feeling ever.“

LLMs bringen das Abstraktionslevel von No-Code-Tools auf die Überholspur.

Das ist auch Empowerment. Und zwar massiv. Und natürlich ist dieser Weg nicht für alles geeignet, yadda yadda. Muss es auch gar nicht sein, um empowering zu sein und Software itself nachhaltig zu verändern.

Aber Entwickler:innen, die laut öffentlich dagegen hetzen, haben wahrscheinlich nur Angst um ihren eigenen Turf? 😉


Standard

Artificial Digging: How Google’s AI Now Reveals What Producers Sampled:

„But it wasn’t until mid-2022 that Google’s song recognition turned from another mid-Shazam alternative to a groundbreaking discovery for them. A Sample Hunting member by the name of DJPasta found a new way to utilize the technology to the fullest: „I figured out a method to run audio directly from my PC into Google Assistant with software called Bluestacks. I was mostly trying out a few Todd Edwards samples that I’d been looking for at the time. To my surprise, Google Assistant’s song recognition found most of them. Eventually, I had the idea to try out shorter samples, like Carrie Lucas‘ ‚Sometimes a Love Goes Wrong.'“

A stint of discoveries followed, also by other members of the community who started using Google Assistant. From there, they had pretty much taken Google Assistant on board as the new default for sample hunting, on top of their continued discoveries by ear, knowledge of music, and labor of endlessly digging through music.

Lobelia recalls there was a sample drought for Daft Punk’s „Face To Face“ up till July 2022. Lobelia: „I slept through what we now call the Night of Many Samples when I’d say a dozen samples were found. I can’t describe how crazy waking up to all of that was!“ Since then, they tongue-in-cheek call Google’s song recognition technology The Blessed AI. A divine status with the community members as its disciples.“