Standard

⭐️ Das ist die größte Summe für eine Suchmaschine seit Jahren: Perplexity erhält insgesamt 74 Millionen US-Dollar unter anderem von Jeff Bezos und anderen wie etwa Shopify-CEO Tobias Lütke oder ex-GitHub-CEO und KI-Spezi Nat Friedman.
💬 Und das völlig zu recht in meinen Augen. Perplexity hat gezeigt, wie viel besser Internetsuche sein kann als es Google und co. heute machen.
Wer meine Podcasts und Texte verfolgt weiß, dass ich Perplexity seit Ende 2022 benutze. Seit Mai ’23 bin ich zahlender Pro-Kunde. Perplexity verbindet LLMs (für Pro-Nutzer GPT-4, Claude 2 oder Gemini) mit dem Bing-Index und produziert damit gute Recherche-Ergebnisse.

Meine Analysearbeit auf neunetz.com und anderenorts ist mit Perplexity nochmal spürbar besser geworden. Es ist einfacher, Zusammenhänge zu finden und obskure Zahlen ausfindig zu machen.

Perplexity zeigt außerdem 2 strukturelle LLM-Aspekte auf:
1. Quellen ausblenden ist kein strukturell notwendiges LLM-Ding. Das war mit Perplexity schon 2022 offensichtlich.
2. Perplexity produziert eine bessere Websuche als Bing, Google und, ja, auch OpenAI mit Websearch. Spezialisierung und Fokus spielen auch bei Consumer-KI eine Rolle. Außerdem: Perplexity kann frei zwischen den Foundation Models wählen. Ein weiterer oft unterschätzter Aspekt in der GPT-Wrapper-Debatte..

Last not least, seit Anfang der Woche liegt die Perplexity-App im Dock meines iPhones:

Siehe zur Finanzierungsrunde u.a. TechCrunch: techcrunch.com/2024/01/04/ai-powered-search-engine-perplexity-ai-now-valued-at-520m-raises-70m/

Standard

Ich benutze den Arc-Browser seit einigen Monaten mit Begeisterung, weil er die Tabs von Webapps wie etwa LinkedIn oder die Weboberfläche meines Mailanbieters Fastmail wie Apps handhabt. Z.B. mit fester Ausgangs-URL, zu der man zurückkehrt und nach außen führenden Links in einem Layover, das man zu einem Tab upgraden kann. Und so weiter. Ich wusste nicht, wie sehr ich das im Alltag gebraucht habe.

Jetzt haben die Macher mit Arc Max die ersten KI-Features eingeführt. Und die sind durch die Bank sinnvoll.

Besonders „Ask on Page“, das an die (sehr nützliche!) Browser-Erweiterung von Perplexity erinnert, dürfte bald so oder ähnlich in jedem Browser landen.

Ein schönes Beispiel dafür, wie generative KI/LLM/ML nicht beim Chat-Interface stehen bleibt. Gerade produktseitig gibt es viel ungehobenes Potenzial.
Bei fast jedem Softwareprodukt gibt es viele einzelne Stellen, die man mit LLMs im Hintergrund(!) verbessern kann.

Die Hauptherausforderung ist, die Stellen und die richtigen Antworten zu finden.

(Als im Frühjahr noch alle über Chats gesprochen haben, hatte ich im InnoQ-Briefing zu LLMs schon auf die Interface-Potenziale hingewiesen.)

Standard

Die großartige PDF-Recherche-iPad-App LiquidText hat ChatGPT-Integration bekommen:

The ChatGPT integration allows users to ask questions about any or all project documents and LiquidText uses ChatGPT to analyze the documents and provide an answer. The second feature allows users to type any sentence into their notes, then LiquidText uses OpenAI semantic analysis tools to suggest a citation, and then links to the parts of the documents users were likely taking notes on.

Sehr praktisch. Wahrscheinlich muss ich zu LiquidText zurückkehren…

Siehe auch das Video hier.

(Musste dabei auch an die jüngsten Claude-News denken. Claude hat letzte Woche ein größeres Kontextfenster als ChatGPT bekommen. LiquidText schickt wegen des beschränkten Kontext „nur“ lokal per ML ausgewählte Paragraphen an ChatGPT, nicht komplette Dokumente. Trotzdem jetzt schon extrem nützlich.)


Standard

Power and Weirdness: How to Use Bing AI – by Ethan Mollick:

„Don’t think of Bing as a search engine. It is only okay at search. But it is an amazing Analytic Engine. Indeed, Bing is at its most powerful, and most different from ChatGPT, when it is looking up data and connecting diverse sets of information together. It is often a startling good data analyst, marketer, and general business companion.“


Standard

Das ist interessant (siehe die Screenshots) und lässt mich nicht los, seit ich es vor ein paar Tagen gesehen habe:

„On the left is GPT-3.5. On the right is GPT-4.

If you think the answer on the left indicates that GPT-3.5 does not have a world-model….

Then you have to agree that the answer on the right indicates GPT-4 does. [..]

It’s pretty evident to me that we’re no longer in „stochastic parrot“ territory. GPT-4 is capable of genuinely reasoning about the world. It’s pretty dumb sometimes, and makes odd mistakes. But it does seem to have some emergent simple world-model.“

GPT-4 liegt bei solchen Aufgaben noch oft genug falsch, dass man sicher davon ausgehen kann, dass es kein Welt-Modell hat. ABER man sieht die Anfänge.


Standard

Solche Anekdoten sehe ich mittlerweile täglich:

„Everyone’s laughing at all the ChatGPT threads, but I (a man who can’t code), just built and shipped a functioning and IMO useful Chrome Extension in ~45 minutes using just that and @Replit – it was the weirdest feeling ever.“

LLMs bringen das Abstraktionslevel von No-Code-Tools auf die Überholspur.

Das ist auch Empowerment. Und zwar massiv. Und natürlich ist dieser Weg nicht für alles geeignet, yadda yadda. Muss es auch gar nicht sein, um empowering zu sein und Software itself nachhaltig zu verändern.

Aber Entwickler:innen, die laut öffentlich dagegen hetzen, haben wahrscheinlich nur Angst um ihren eigenen Turf? 😉