Ich hab es aufgegeben, mich dagegen zu wehren: dieser Newsletter ist also auch wieder ein KI-Newsletter geworden. Immer noch geschrieben von mir, nicht ChatGPT (sorry).
Damit willkommen in 2024 und zurück zu Zine, dem Newsletter über fragliche Produktivitätssteigerungen, Kartografie und Merkwürdiges.
Bis nach dem Hype-Cylce,
Johannes
P.S.: Lass dir dein Tarot für 2024 von GPT-4 legen
“KI” war 2023 der Silberstreif am Horizont der Tech-Industrie. Knapp 25% aller US-Investments flossen im letzten Jahr in Startups, die irgendetwas mit “KI” zu tun haben, während die Gesamt-Investments ein Fünf-Jahres-Tief erreichten.
Die große Frage ist jetzt: Kann diese Technologie tatsächlich die Investitionen in sie rechtfertigen? Und damit ist gemeint: Wird sie einen echten wirtschaftlichen Effekt haben? Und wie immer… ist es etwas kompliziert.
Macht KI produktiver?
Ein vielzitiertes Beispiel für den Effekt von GenAI ist eine Studie des Einsatzes von GPT-4 bei der Boston Consulting Group. Hier schafften Berater:innen knapp 12% mehr Aufgaben in 25% weniger Zeit. Gleichzeitig schloss der Einsatz bei einigen Aufgaben die Lücke zwischen “low-skill” und “high-skill” Berater:innen deutlich. Wow! Oder?
Einmal abgesehen von der Frage, ob “produktivere” BCG-Berater:innen tatsächlich einen größeren Effekt auf die Gesamtwirtschaft hätten (🫠🫠🫠), werden dabei gerne zwei klitzeklitzeklitzekleine Details überlesen:
senkte GPT-4 bei einigen Aufgaben die Produktivität, insbesondere bei “high-skill”-Mitarbeiter:innen
die Ergebnisse enthielten deutlich mehr Fehler als rein menschlich erstellte Inhalte (dazu gleich mehr)
Ausgerechnet im Harvard Business Review ziehen Ben Waber und Nathaniel Fast ein eher vorsichtiges Zwischenfazit: Es ist schwierig von einzelnen Aufgaben auf die Effizienzsteigerung von Teams oder ganzen Unternehmen zu schließen. Insbesondere dann, wenn diese Studien die Qualität der Ergebnisse nicht im Fokus haben.
Ironies of Automation
Ein Problem mit Automatisierung ist, dass sie niemals wirklich problemlos funktioniert. Das ist der Grund, weshalb Self-Checkout-Kassen noch immer Personal brauchen oder Lagerroboter eigene Aufpasser:innen. In der Regel fließen 50%–70% des Budgets für Software-Projekte nicht in die Entwicklung, sondern in die Instandhaltung und Reperatur.
Es ist noch unklar, an welchem Ende dieser Skala sich GenAI-Implementierungen wiederfinden werden. Es sind nur eben diese Prozent, die den Unterschied zwischen echter Effizienzsteigerung oder dem was inzwischen als “so-so automation” bekannt ist:
[…] advances that disrupt employment and displace workers without generating much of a boost in productivity or quality of service.
Es gibt zudem einige Gründe, weshalb der Einsatz von Sprachmodellen deutlich teurer werden könnte, als nur API-Schnittstellen anzuzapfen:
Modelle sind nicht-deterministisch, bzw. variieren oft stark in ihrem Output (bspw. ist ChatGPT im Dezember “fauler”, als im Mai), es ist also oft schwierig, auf ihnen stabile Prozesse aufzubauen.
Der Output selbst ist oft voller Fehler, was Korrekturen und Fakten-Checks nötig macht, zusätzliche Arbeitszeit kostet und deren Einsatz einschränkt (bspw. fand eine Studie von Software Code einen starken Anstieg in Code-Korrekturen im letzten halben Jahr).
Modelle können außerdem recht simpel manipuliert werden, was ihren Einsatz als beispielsweise Kundenservice-Tool weiterhin schwierig macht.
Modelle können zudem schlecht mit Aufgaben umgehen, die sich außerhalb ihres Trainingmaterials befinden (bspw. die Einführung einer neuen Produktlinie würde also dazu führen, dass das firmeneigene Modell teuer neu trainiert werden muss).
GenAI (insb. LLMs) ist mächtig und in vielen Fällen ein äußerst hilfreiches Werkzeug, aber werden diese merklichen Einfluss auf die Produktivität ganzer Unternehmen oder Volkswirtschaften haben? Die Antwort wird vermutlich irgendwo in der Mitte liegen, aber es ist nicht unwahrscheinlich, dass sie dem Hype nicht gerecht werden können. GenAI wird zwar in schicken Powerpoints verkauft, aber die eigentlich Macht liegt in Excel.
+ Und dabei haben wir noch gar nicht über negative Effekte von GenAI gesprochen, wie die Zunahme von Müll-Inhalten im Internet oder neue Betrugs-Maschen durch Deepfakes.
+ Cory Doctorows noch pessimistischere Analyse des GenAI-Marktes: hohe Erwartungen, aber ein wackliges Geschäftsmodell. Kurz: eine Blase. Die Frage bleibt nur, was nach dieser Blase noch stehen wird.
All the big, exciting uses for AI are either low-dollar (helping kids cheat on their homework, generating stock art for bottom-feeding publications) or high-stakes and fault-intolerant (self-driving cars, radiology, hiring, etc.).
+ Eine gute und ausführliche Zusammenfassung des Stands von Open Source Sprachmodellen in 2024.
+ Den einzigen Text, den du zu Rabbit1 und Humane lesen musst.
+ Viele Teile der KI-Industrie wirken zudem inzwischen unangenehm kultisch und pseudo-religiös.
Merkwürdiges und Anderes
Ski Aggu Pro — Apples VR/AR-Brille wird in den nächsten Tagen offiziell launchen und die ersten Rezensionen sind mäßig. Obwohl technisch beeindruckend, scheint die Brille einige zentrale Probleme (Interaktion, abgeschottet sein, Kamera-Probleme) nicht lösen zu können.
Infrastrukturen — Es gab in den letzten Monaten gleich zwei neue grandiose Bücher über moderne Infrastrukturen und deren Konsequenzen: Deb Chachras “How Infrastructure Works” und Georgina Voss’ “Systems Ultra”. Lesetipps am Rande.
+ Beyond the Map — ein Interview-Podcast über die versteckten Geografien der modernen Welt
Die lange, lange Liste der Klagen gegen OpenAI & Co. 🧑🏻⚖️
Eine 59 Minuten lange Diskussion über den Einsatz von Lavallier-Mikrofonen auf TikTok (was für die Audio/Fernseh-Nerds hier) 🚫🎙️
Burn after Reading — ein Newsletter über Mode, Trends, Kultur, das Internet
Die ARD betreibt inzwischen auch einen eigenen Mastodon-Server 🐘
Ein Überblick über “KI-Ethik-Richtlinien” in der Musik-Industrie
Japanese City Pop ist back! (Hyyyyyyype!) 🌇
Was vom 5G-Hype übrig blieb 📶
Taylor Swift Fans bewegen bei Konzerten bis zu 29 Terrabyte pro Konzert über Mobilnetzwerke
Sanftes Headbanging und gute Musik auf Instagram 🎶
Bürokratie-Abbau bei der Unternehmensgründung führt nicht unbedingt zu mehr erfolgreichen Startups, sondern zu mehr Briefkastenfirmen und Betrug
Blackbox Cartography (für ein spätes Weihnachtsgeschenk) 🗺️
Bild hat anscheinend jetzt auch einen GPT-4 beetriebenen Chat Bot (ja, man kann ihn schlechte Dinge über die Bild sagen lassen)
Das Humboldt Institut hat einen “Futures Literacy”-Baukasten für Schulen und Seminare 🔮
Alan Warburtons exzellenter Video Essay “The Wizards of AI”
Thanks for citing GPTarot ☺️ I wrote about it on my Substack a few weeks ago: https://newsletter.envisioning.io The entire NodeJS web app was created with the help of ChatGPT and the images were made with DallE to represent "all" cards. Vielen dank!
Der Link bei "Viele Teile der KI-Industrie wirken zudem inzwischen unangenehm kultisch und pseudo-religiös." führt leider auf einen allgemeinen Matter-Einstieg.