Standard

OpenAIs neues Modell o1, über das gerade alle reden, macht eine wesentliche Sache anders:

Es findet jetzt sehr viel mehr in der Inferenz statt. Ob man es „nachdenken“ oder „Berechnung“ nennt, ist egal. Entscheidend: es findet bei diesem Modell mehr Verarbeitung nach dem Input statt. Das kann dann gut eine halbe Minute und länger dauern.

Das ist spannend. In der Forschung schaut man sich auch bereits an, was an dieser Stelle passieren kann. Agenten wie Replit Agent etc. arbeiten ebenfalls bereits länger. Das interne Chain of Thought bei GPT-o1 dürfte auch agentenartige Vorgänge haben.

Wie dem auch sei. Die Variable Schnelligkeit für spezifische Outputqualität herabzustufen, macht interessante Optionen auf.

Was wird möglich, wenn wir Rechenzeiten etwa von Stunden oder Tagen in Kauf nehmen? Welche Art von Modellen können mit dieser Ausgangslage gebaut werden? Das ist dann etwas fundamental anderes als die in jüngster Zeit immer schneller und günstiger gewordenen Modelle.

Wir sehen hier also eine weitere Achse für Ausdifferenzierung auf der Modellebene. Mehr dazu auch heute später im neunetz.com-Briefing.

Wie immer auch lesenswert dazu die erste Einordnung von Ethan Mollick, der das Modell bereits einen Monat lang testen konnte (was seine kryptischen „da kommt noch mehr“-Kommentare die letzten Wochen ein bisschen erklärt):

Something New: On OpenAI’s „Strawberry“ and Reasoning:

So o1-preview does things that would have been impossible without Strawberry, but it still isn’t flawless: errors and hallucinations still happen, and it is still limited by the „intelligence“ of GPT-4o as the underlying model. Since getting the new model, I haven’t stopped using Claude to critique my posts – Claude is still better at style – but I did stop using it for anything involving complex planning or problem solving. It represents a huge leap in those areas.

Standard

Die KI-Revolution ist in vollem Gange, aber es gibt noch viele offene Fragen und Herausforderungen.

In meiner neuesten Analyse spreche ich über die zwei KI-Gadgets, Humane AI Pin und Rabbit R1, und ihre unterschiedlichen Ansätze zur Abstraktion von Apps.

Du kannst die App-Rankings einer beliebigen Kategorie nicht auf die Zahl 1 eindampfen. KI ist mächtig, aber ganze Branchen wegabstrahierende Chatbots werden aus offensichtlichen Gründen nicht das nächste große Interface sein. Was also stattdessen tun?

  • Humane setzt auf Hinterzimmerdeals.
  • Rabbit R1 hingegen versucht, eine weniger hierarchisch abgeriegelte Umgebung zu schaffen, indem es den Zugriff auf ausgewählte Apps über ein Webportal umsetzt.

Beide haben gemeinsam, dass sie die Discovery neuer Dienste komplett ausblenden. Das ist aktuell noch nicht wichtig.

ABER: Aber es gibt uns aktuell weniger als die Hälfte der Geschichte.

Wie das erste iPhone ohne Appstore. Tolles Interface. Aber das Interface allein war nicht die Disruption. Es war eine Bedingung dafür.

Die wahre Dynamik, die Musik, spielt in der Discovery. Da, wo diese Zugänge Neues ermöglichen.

Trotz dieser Herausforderungen zeigt die rasche Entwicklung in diesem Bereich, dass wir uns inmitten eines Paradigmenwechsels befinden, der durch den Aufstieg von LLMs und KI allgemein vorangetrieben wird. Wir reden wieder über Gadgets!

Hier geht’s zur Analyse, um mehr über die Zukunft der KI-Gadgets & Interfaces zu erfahren: neunetz.com/2024/01/11/rabbit-r1-und-humane-die-groesste-offene-frage-bei-den-ki-gadgets/

Standard

⭐️ Das ist die größte Summe für eine Suchmaschine seit Jahren: Perplexity erhält insgesamt 74 Millionen US-Dollar unter anderem von Jeff Bezos und anderen wie etwa Shopify-CEO Tobias Lütke oder ex-GitHub-CEO und KI-Spezi Nat Friedman.
💬 Und das völlig zu recht in meinen Augen. Perplexity hat gezeigt, wie viel besser Internetsuche sein kann als es Google und co. heute machen.
Wer meine Podcasts und Texte verfolgt weiß, dass ich Perplexity seit Ende 2022 benutze. Seit Mai ’23 bin ich zahlender Pro-Kunde. Perplexity verbindet LLMs (für Pro-Nutzer GPT-4, Claude 2 oder Gemini) mit dem Bing-Index und produziert damit gute Recherche-Ergebnisse.

Meine Analysearbeit auf neunetz.com und anderenorts ist mit Perplexity nochmal spürbar besser geworden. Es ist einfacher, Zusammenhänge zu finden und obskure Zahlen ausfindig zu machen.

Perplexity zeigt außerdem 2 strukturelle LLM-Aspekte auf:
1. Quellen ausblenden ist kein strukturell notwendiges LLM-Ding. Das war mit Perplexity schon 2022 offensichtlich.
2. Perplexity produziert eine bessere Websuche als Bing, Google und, ja, auch OpenAI mit Websearch. Spezialisierung und Fokus spielen auch bei Consumer-KI eine Rolle. Außerdem: Perplexity kann frei zwischen den Foundation Models wählen. Ein weiterer oft unterschätzter Aspekt in der GPT-Wrapper-Debatte..

Last not least, seit Anfang der Woche liegt die Perplexity-App im Dock meines iPhones:

Siehe zur Finanzierungsrunde u.a. TechCrunch: techcrunch.com/2024/01/04/ai-powered-search-engine-perplexity-ai-now-valued-at-520m-raises-70m/

Standard

Tipp: Wer das gerade vom Pariser Startup Mistral AI veröffentliche Open-Source-LLM Mixtral-8x7b testen will, kann das mit wenig Aufwand in den Perplexity Labs machen. Dort gibt es auch Llama-Modelle und aus Llama entstandene Modelle zum kostenfreien Testen. labs.perplexity.ai/

Mixtral-8x7b erreicht GPT-3.5-Qualität.

Echte Nerds installieren sich Mixtral und co. natürlich lokal, bevor der uns das wieder wegnimmt. 😉

Apropros und : Es gibt in der EU gerade zwei wichtige Startups im genAI-Feld: Aleph Alpha aus Deutschland und Mistral aus Frankreich. Von den beiden ist Mistral gerade um Dimensionen spannender.

Standard

Ich benutze den Arc-Browser seit einigen Monaten mit Begeisterung, weil er die Tabs von Webapps wie etwa LinkedIn oder die Weboberfläche meines Mailanbieters Fastmail wie Apps handhabt. Z.B. mit fester Ausgangs-URL, zu der man zurückkehrt und nach außen führenden Links in einem Layover, das man zu einem Tab upgraden kann. Und so weiter. Ich wusste nicht, wie sehr ich das im Alltag gebraucht habe.

Jetzt haben die Macher mit Arc Max die ersten KI-Features eingeführt. Und die sind durch die Bank sinnvoll.

Besonders „Ask on Page“, das an die (sehr nützliche!) Browser-Erweiterung von Perplexity erinnert, dürfte bald so oder ähnlich in jedem Browser landen.

Ein schönes Beispiel dafür, wie generative KI/LLM/ML nicht beim Chat-Interface stehen bleibt. Gerade produktseitig gibt es viel ungehobenes Potenzial.
Bei fast jedem Softwareprodukt gibt es viele einzelne Stellen, die man mit LLMs im Hintergrund(!) verbessern kann.

Die Hauptherausforderung ist, die Stellen und die richtigen Antworten zu finden.

(Als im Frühjahr noch alle über Chats gesprochen haben, hatte ich im InnoQ-Briefing zu LLMs schon auf die Interface-Potenziale hingewiesen.)

Standard

Frage mich immer, was für ein verdrehtes Bild man von anderen Menschen haben muss, wenn man denkt, irgendjemand, let alone eine lose Gruppe von 100+ Leuten, würde dreidimensionales Schach spielen, indem sie auf positive Produkt-PR mittels „unsere Produkte sind so gut, dass sie euch alle vernichten können“ setzen.

Leute können andere Positionen haben. Das geht. Sie können von diesen überzeugt sein, auch wenn man selbst was anderes glaubt.

(aktuell wird hierüber gegrübelt: www.nytimes.com/2023/05/30/technology/ai-threat-warning.html )


Standard

Woher man weiß, wie man KI nutzen soll:

Die Kollegin hatte das Problem ziemlich genervt, und sie konnte mit ihrem Computer eigentlich schon umgehen — sie hatte nur diesen einen Schritt im Kopf nicht gemacht: das Problem einfach in Google eingeben.

Das bedeutet: Der Google-Workflow besteht eigentlich nicht aus drei, sondern aus vier Schritten — zwischen „Schritt 1: Ich habe ein Problem“ und „Schritt 2: Ich google das Problem“ hat sich etwas dazwischengeschmuggelt: „Schritt 1.5: Ich denke daran, dass ich das Problem googlen kann.“

Das klingt erstmal nach keiner großen Hürde, aber im Alltag begegnet sie uns ständig. Auch ich selbst als ach so stolzer Digital Native laufe teilweise monatelang mit kleinen Problemchen durchs Leben, bis ich mal auf die Idee komme, mich wirklich um sie zu kümmern (d.h. googlen).

Die Internet-Suchmaschine hatte also zwei große Hürden zur Verbreitung: Eine technische, und eine im Kopf der User. Die technische ist gelöst — Google funktioniert (einigermaßen). Aber das im Kopf, das ist immer noch in Arbeit.

Und das Gleiche passiert mit KI:

Auch ChatGPT ist nicht nur technisch limitiert. Sondern vor allem dadurch, wir wir mit ihnen umgehen.

Sehr guter Text über ChatGPT im Alltag.


Standard

„On the Internet, nobody knows you’re a dog“ ist etwas, das wir bis heute nicht gelöst haben. Kontext ist im Internet entweder klassisch (Regierungswebsite, alte Publikation, Marke, etc.) oder rudimentär bis nicht-existent. Was uns bei Social Media schon ein bisschen auf die Füße viel, wird mit LLMs und generativer KI allgemein (Bilder, Video, Audio) um ein Vielfaches negativ verstärkt, bei Input UND Output.

Und nein, weder rel=me noch Mitarbeiter, bei Twitter, TikTok und YouTube, die Verifications im Accord ausgeben, sind die Lösung.

Es braucht eine internetgenuine Lösung.

Also dezentral, offen und vielfältig.