ki

Das ist interessant (siehe die Screenshots) und lässt mich nicht los, seit ich es vor ein paar Tagen gesehen habe:

„On the left is GPT-3.5. On the right is GPT-4.

If you think the answer on the left indicates that GPT-3.5 does not have a world-model….

Then you have to agree that the answer on the right indicates GPT-4 does. [..]

It’s pretty evident to me that we’re no longer in „stochastic parrot“ territory. GPT-4 is capable of genuinely reasoning about the world. It’s pretty dumb sometimes, and makes odd mistakes. But it does seem to have some emergent simple world-model.“

GPT-4 liegt bei solchen Aufgaben noch oft genug falsch, dass man sicher davon ausgehen kann, dass es kein Welt-Modell hat. ABER man sieht die Anfänge.


Read More »

Solche Anekdoten sehe ich mittlerweile täglich:

„Everyone’s laughing at all the ChatGPT threads, but I (a man who can’t code), just built and shipped a functioning and IMO useful Chrome Extension in ~45 minutes using just that and @Replit – it was the weirdest feeling ever.“

LLMs bringen das Abstraktionslevel von No-Code-Tools auf die Überholspur.

Das ist auch Empowerment. Und zwar massiv. Und natürlich ist dieser Weg nicht für alles geeignet, yadda yadda. Muss es auch gar nicht sein, um empowering zu sein und Software itself nachhaltig zu verändern.

Aber Entwickler:innen, die laut öffentlich dagegen hetzen, haben wahrscheinlich nur Angst um ihren eigenen Turf? 😉


Read More »

Artificial Digging: How Google’s AI Now Reveals What Producers Sampled:

„But it wasn’t until mid-2022 that Google’s song recognition turned from another mid-Shazam alternative to a groundbreaking discovery for them. A Sample Hunting member by the name of DJPasta found a new way to utilize the technology to the fullest: „I figured out a method to run audio directly from my PC into Google Assistant with software called Bluestacks. I was mostly trying out a few Todd Edwards samples that I’d been looking for at the time. To my surprise, Google Assistant’s song recognition found most of them. Eventually, I had the idea to try out shorter samples, like Carrie Lucas‘ ‚Sometimes a Love Goes Wrong.'“

A stint of discoveries followed, also by other members of the community who started using Google Assistant. From there, they had pretty much taken Google Assistant on board as the new default for sample hunting, on top of their continued discoveries by ear, knowledge of music, and labor of endlessly digging through music.

Lobelia recalls there was a sample drought for Daft Punk’s „Face To Face“ up till July 2022. Lobelia: „I slept through what we now call the Night of Many Samples when I’d say a dozen samples were found. I can’t describe how crazy waking up to all of that was!“ Since then, they tongue-in-cheek call Google’s song recognition technology The Blessed AI. A divine status with the community members as its disciples.“

Read More »

Gerade gelernt, dass die ersten Macher von Developer Tools ihre Docs und Tools jetzt mit der Prämisse weiterentwickeln, dass Entwickler:innen das alles mit LLMs benutzen werden.

Sprich: Es gibt eine rasant steigende Bedeutung von Maschinenlesbarkeit für LLM-augmentierte Einsatzszenarien.

Und das quer durch die Tech-Stacks.


Read More »

Konzis gute Zusammenfassung der Wertschöpfungsverschiebung durch bzw. vom Box.com-CEO Aaron Levie:

„We’re now officially in the era of AI-first software. Mobile transformed our apps, cloud transformed our hardware, AI transforms our information.“

Read More »

Notion + KI

Notion hat (schon im November) eine erste Alpha-Version einer KI-Integration gelauncht:

  • Inspirationen, „erster Entwurf“
  • nervige Dinge wie Vorbereitungen für Meetings
  • Grammatik, Rechtschreibung
  • Zusammenfassungen(!)

Sieht sehr praktisch aus.

Bei geht es um Augmentierung der Arbeit; am besten in Bereichen, in denen man sich auskennt.

www.notion.so/product/ai

Etwas, dass wir künftig regelmäßig lesen werden:

„We do not allow any partners or 3rd parties to use your data for training their models or any other purpose.

We will not use your data to train our models unless you give us express permission to do so.“

Es gibt online nur noch 2 Arten von Content: Eine ist KI-Trainingfutter, die andere nicht.

Notion + KI Read More »

Microsoft’s new AI can simulate anyone’s voice with 3 seconds of audio | Ars Technica:

Its creators speculate that VALL-E could be used for high-quality text-to-speech applications, speech editing where a recording of a person could be edited and changed from a text transcript (making them say something they originally didn’t), and audio content creation when combined with other generative AI models like GPT-3.

Die nächsten Jahre werden sehr interessant.


Read More »