AI

OpenAIs neues Modell o1, über das gerade alle reden, macht eine wesentliche Sache anders:

Es findet jetzt sehr viel mehr in der Inferenz statt. Ob man es „nachdenken“ oder „Berechnung“ nennt, ist egal. Entscheidend: es findet bei diesem Modell mehr Verarbeitung nach dem Input statt. Das kann dann gut eine halbe Minute und länger dauern.

Das ist spannend. In der Forschung schaut man sich auch bereits an, was an dieser Stelle passieren kann. Agenten wie Replit Agent etc. arbeiten ebenfalls bereits länger. Das interne Chain of Thought bei GPT-o1 dürfte auch agentenartige Vorgänge haben.

Wie dem auch sei. Die Variable Schnelligkeit für spezifische Outputqualität herabzustufen, macht interessante Optionen auf.

Was wird möglich, wenn wir Rechenzeiten etwa von Stunden oder Tagen in Kauf nehmen? Welche Art von Modellen können mit dieser Ausgangslage gebaut werden? Das ist dann etwas fundamental anderes als die in jüngster Zeit immer schneller und günstiger gewordenen Modelle.

Wir sehen hier also eine weitere Achse für Ausdifferenzierung auf der Modellebene. Mehr dazu auch heute später im neunetz.com-Briefing.

Wie immer auch lesenswert dazu die erste Einordnung von Ethan Mollick, der das Modell bereits einen Monat lang testen konnte (was seine kryptischen „da kommt noch mehr“-Kommentare die letzten Wochen ein bisschen erklärt):

Something New: On OpenAI’s „Strawberry“ and Reasoning:

So o1-preview does things that would have been impossible without Strawberry, but it still isn’t flawless: errors and hallucinations still happen, and it is still limited by the „intelligence“ of GPT-4o as the underlying model. Since getting the new model, I haven’t stopped using Claude to critique my posts – Claude is still better at style – but I did stop using it for anything involving complex planning or problem solving. It represents a huge leap in those areas.

Read More »

Die großartige PDF-Recherche-iPad-App LiquidText hat ChatGPT-Integration bekommen:

The ChatGPT integration allows users to ask questions about any or all project documents and LiquidText uses ChatGPT to analyze the documents and provide an answer. The second feature allows users to type any sentence into their notes, then LiquidText uses OpenAI semantic analysis tools to suggest a citation, and then links to the parts of the documents users were likely taking notes on.

Sehr praktisch. Wahrscheinlich muss ich zu LiquidText zurückkehren…

Siehe auch das Video hier.

(Musste dabei auch an die jüngsten Claude-News denken. Claude hat letzte Woche ein größeres Kontextfenster als ChatGPT bekommen. LiquidText schickt wegen des beschränkten Kontext „nur“ lokal per ML ausgewählte Paragraphen an ChatGPT, nicht komplette Dokumente. Trotzdem jetzt schon extrem nützlich.)


Read More »

JPEG Compressed Images Can Bypass Protections Against AI Editing:

„Recently developed text-to-image diffusion models make it easy to edit or create high-quality images. Their ease of use has raised concerns about the potential for malicious editing or deepfake creation. Imperceptible perturbations have been proposed as a means of protecting images from malicious editing by preventing diffusion models from generating realistic images. However, we find that the aforementioned perturbations are not robust to JPEG compression, which poses a major weakness because of the common usage and availability of JPEG.“


Read More »

Solche Anekdoten sehe ich mittlerweile täglich:

„Everyone’s laughing at all the ChatGPT threads, but I (a man who can’t code), just built and shipped a functioning and IMO useful Chrome Extension in ~45 minutes using just that and @Replit – it was the weirdest feeling ever.“

LLMs bringen das Abstraktionslevel von No-Code-Tools auf die Überholspur.

Das ist auch Empowerment. Und zwar massiv. Und natürlich ist dieser Weg nicht für alles geeignet, yadda yadda. Muss es auch gar nicht sein, um empowering zu sein und Software itself nachhaltig zu verändern.

Aber Entwickler:innen, die laut öffentlich dagegen hetzen, haben wahrscheinlich nur Angst um ihren eigenen Turf? 😉


Read More »

Ich habe gerade scite.ai entdeckt und das sieht mal fantastisch aus. ML-Analyse von 33 Millionen akademischer Papers, eine extrem nützliche Hilfe. Unter anderem:

„See how your references have been cited all in one place and evaluate your references to see if they have editorial notices, retractions, or seem to be heavily contrasted at a fraction of the time it would normally take you.“

scite.ai/

Read More »

Artificial Digging: How Google’s AI Now Reveals What Producers Sampled:

„But it wasn’t until mid-2022 that Google’s song recognition turned from another mid-Shazam alternative to a groundbreaking discovery for them. A Sample Hunting member by the name of DJPasta found a new way to utilize the technology to the fullest: „I figured out a method to run audio directly from my PC into Google Assistant with software called Bluestacks. I was mostly trying out a few Todd Edwards samples that I’d been looking for at the time. To my surprise, Google Assistant’s song recognition found most of them. Eventually, I had the idea to try out shorter samples, like Carrie Lucas‘ ‚Sometimes a Love Goes Wrong.'“

A stint of discoveries followed, also by other members of the community who started using Google Assistant. From there, they had pretty much taken Google Assistant on board as the new default for sample hunting, on top of their continued discoveries by ear, knowledge of music, and labor of endlessly digging through music.

Lobelia recalls there was a sample drought for Daft Punk’s „Face To Face“ up till July 2022. Lobelia: „I slept through what we now call the Night of Many Samples when I’d say a dozen samples were found. I can’t describe how crazy waking up to all of that was!“ Since then, they tongue-in-cheek call Google’s song recognition technology The Blessed AI. A divine status with the community members as its disciples.“

Read More »

Ich bin alt genug, um mich an die Debatte zu erinnern, dass ChatGPT keine Gefahr für Google et al darstellt.

Microsoft and OpenAI Working on ChatGPT-Powered Bing in Challenge to Google — The Information:

„Microsoft could soon get a return on its $1 billion investment in OpenAI, creator of the ChatGPT chatbot, which gives humanlike text answers to questions.

Microsoft is preparing to launch a version of its Bing search engine that uses the artificial intelligence behind ChatGPT to answer some search queries rather than just showing a list of links, according to two people with direct knowledge of the plans. Microsoft hopes the new feature, which could launch before the end of March, will help it outflank Google, its much bigger search rival.“

Paradigmenwechsel, die in der Regel auf den Job to be done schielend passieren, sind in 99% der Fälle nicht das Vorhergehende komplett ersetzend, sondern ’nur‘ an manchen Stellen sehr viel besser als das Alte.

In der nächsten Exchanges-Ausgabe sprechen wir auch über ML und ChatGPT für/im Onlinehandel.


Read More »

Metaverse und die Anhörung des Digitalausschusses

Für’s Archiv, ursprünglich auf LinkedIn gepostet:

Interessant zu sehen, wie viel substanzielle Kritik hier an der gestrigen Anhörung des Digitalausschusses geschrieben wurde. Zur Einseitigkeit und den teilweise bizarren Aussagen zu und wurde hier schon viel gesagt.

Ich möchte noch auf etwas anderes hinweisen. Keiner der geladenen Expert:innen machte auf mich den Eindruck, für das vermeintliche, neben zweite Thema geladen worden zu sein. Die Mehrheit wurde wegen ihrer Fundamentalablehnung gegenüber dem -Thema eingeladen. Again, darüber wurde hier schon viel geschrieben.

Eine der Expert:innen scherzte, dass sie zum Metaverse nicht viel zu sagen habe, weil sie „keine Computerspiele spiele“. Als würde es bei dem Thema rein um Spiele gehen. (Spiele sind ’nur‘ der heutige technische und soziologische Treiber des Themas, das irgendwann in seinen Einsatzarten weit darüber hinauswachsen wird.)

Die eine Seite der geladenen Sachverständigen tat so, als wäre es ein Quatschthema, weil das heutige Internet mit Tweets und Tiktok-Videos ja eh am Ende der Entwicklung angekommen ist und alles andere Innovationstheater sei. Die andere Seite tat so, als wäre Metaverse heute eines der wichtigsten Tech-Themen überhaupt.

Beides ist Quatsch.

Die Wahrheit ist, dass immersive Welten in ihrer Nutzung massiv wachsen. Dass alle notwendigen Technologien sich in eine Richtung bewegen, die diese Welten immer besser umsetzbar machen. (höhere Bandbreite, Rechenleistung, etc.) Dass die Rendering-Engines Unreal und Unity und ihre Ökosysteme die neuen Plattformen dieser Welt sind. Und dass die andere Art der Plattformen in diesem Feld von Roblox und Minecraft vertreten sind. Was unterscheidet sie? Kein Thema! Dass Rückwärtskompatibilität ein notwendiges Thema für Reichweite sein wird. Dass Themen wie (Umweltgenerierung) und, jaha, Blockchain (für sehr zahlreiche, möglichst weitreichende weil standardisierte B2B-Kooperationen auf allen Ebenen) bei dieser Entwicklung releant sein werden. Dass das Thema für den Mainstream weit in der Zukunft liegt, 15 oder 20 Jahre. Dass sowohl Endgeräte als auch Infrastruktur (Bandbreite!) noch lang nicht so weit sind, dass sie viele(!) Leute gleichzeitig(!) in einem „Raum“ bedienen könnten. Dass auch zum Teil noch für Öffentlichkeit wie Politik obskure Protokolle wie das Border Gateway Protocol Teil einer „Modernisierungsdebatte“ sein werden, weil Echtzeit ein technisch schwieriges, aber potenziell sehr lukratives Geschäft werden wird.

Davon wurde nichts bei diesem als Anhörung verkleideten Gladiatorenkampf besprochen.

Und das passiert, wenn zu solchen Themen nicht Expert:innen geladen werden, sondern Kulturkämpfer:innen und Lobbyist:innen.

(Das liegt zum Teil in der Natur der Sache. Es ist nur auffällig gewesen, wie extrem es dieses Mal war.)

Metaverse und die Anhörung des Digitalausschusses Read More »