Standard

„On the Internet, nobody knows you’re a dog“ ist etwas, das wir bis heute nicht gelöst haben. Kontext ist im Internet entweder klassisch (Regierungswebsite, alte Publikation, Marke, etc.) oder rudimentär bis nicht-existent. Was uns bei Social Media schon ein bisschen auf die Füße viel, wird mit LLMs und generativer KI allgemein (Bilder, Video, Audio) um ein Vielfaches negativ verstärkt, bei Input UND Output.

Und nein, weder rel=me noch Mitarbeiter, bei Twitter, TikTok und YouTube, die Verifications im Accord ausgeben, sind die Lösung.

Es braucht eine internetgenuine Lösung.

Also dezentral, offen und vielfältig.


Standard

Power and Weirdness: How to Use Bing AI – by Ethan Mollick:

„Don’t think of Bing as a search engine. It is only okay at search. But it is an amazing Analytic Engine. Indeed, Bing is at its most powerful, and most different from ChatGPT, when it is looking up data and connecting diverse sets of information together. It is often a startling good data analyst, marketer, and general business companion.“


Standard

Das ist interessant (siehe die Screenshots) und lässt mich nicht los, seit ich es vor ein paar Tagen gesehen habe:

„On the left is GPT-3.5. On the right is GPT-4.

If you think the answer on the left indicates that GPT-3.5 does not have a world-model….

Then you have to agree that the answer on the right indicates GPT-4 does. [..]

It’s pretty evident to me that we’re no longer in „stochastic parrot“ territory. GPT-4 is capable of genuinely reasoning about the world. It’s pretty dumb sometimes, and makes odd mistakes. But it does seem to have some emergent simple world-model.“

GPT-4 liegt bei solchen Aufgaben noch oft genug falsch, dass man sicher davon ausgehen kann, dass es kein Welt-Modell hat. ABER man sieht die Anfänge.


Standard

Solche Anekdoten sehe ich mittlerweile täglich:

„Everyone’s laughing at all the ChatGPT threads, but I (a man who can’t code), just built and shipped a functioning and IMO useful Chrome Extension in ~45 minutes using just that and @Replit – it was the weirdest feeling ever.“

LLMs bringen das Abstraktionslevel von No-Code-Tools auf die Überholspur.

Das ist auch Empowerment. Und zwar massiv. Und natürlich ist dieser Weg nicht für alles geeignet, yadda yadda. Muss es auch gar nicht sein, um empowering zu sein und Software itself nachhaltig zu verändern.

Aber Entwickler:innen, die laut öffentlich dagegen hetzen, haben wahrscheinlich nur Angst um ihren eigenen Turf? 😉


Standard

Artificial Digging: How Google’s AI Now Reveals What Producers Sampled:

„But it wasn’t until mid-2022 that Google’s song recognition turned from another mid-Shazam alternative to a groundbreaking discovery for them. A Sample Hunting member by the name of DJPasta found a new way to utilize the technology to the fullest: „I figured out a method to run audio directly from my PC into Google Assistant with software called Bluestacks. I was mostly trying out a few Todd Edwards samples that I’d been looking for at the time. To my surprise, Google Assistant’s song recognition found most of them. Eventually, I had the idea to try out shorter samples, like Carrie Lucas‘ ‚Sometimes a Love Goes Wrong.'“

A stint of discoveries followed, also by other members of the community who started using Google Assistant. From there, they had pretty much taken Google Assistant on board as the new default for sample hunting, on top of their continued discoveries by ear, knowledge of music, and labor of endlessly digging through music.

Lobelia recalls there was a sample drought for Daft Punk’s „Face To Face“ up till July 2022. Lobelia: „I slept through what we now call the Night of Many Samples when I’d say a dozen samples were found. I can’t describe how crazy waking up to all of that was!“ Since then, they tongue-in-cheek call Google’s song recognition technology The Blessed AI. A divine status with the community members as its disciples.“

#ai

Statusmitteilung

Gerade gelernt, dass die ersten Macher von Developer Tools ihre Docs und Tools jetzt mit der Prämisse weiterentwickeln, dass Entwickler:innen das alles mit LLMs benutzen werden.

Sprich: Es gibt eine rasant steigende Bedeutung von Maschinenlesbarkeit für LLM-augmentierte Einsatzszenarien.

Und das quer durch die Tech-Stacks.


Statusmitteilung

Konzis gute Zusammenfassung der Wertschöpfungsverschiebung durch bzw. vom Box.com-CEO Aaron Levie:

„We’re now officially in the era of AI-first software. Mobile transformed our apps, cloud transformed our hardware, AI transforms our information.“

Notion + KI

Standard

Notion hat (schon im November) eine erste Alpha-Version einer KI-Integration gelauncht:

  • Inspirationen, „erster Entwurf“
  • nervige Dinge wie Vorbereitungen für Meetings
  • Grammatik, Rechtschreibung
  • Zusammenfassungen(!)

Sieht sehr praktisch aus.

Bei geht es um Augmentierung der Arbeit; am besten in Bereichen, in denen man sich auskennt.

www.notion.so/product/ai

Etwas, dass wir künftig regelmäßig lesen werden:

„We do not allow any partners or 3rd parties to use your data for training their models or any other purpose.

We will not use your data to train our models unless you give us express permission to do so.“

Es gibt online nur noch 2 Arten von Content: Eine ist KI-Trainingfutter, die andere nicht.