SymbolicAI: A neuro-symbolic perspective on LLMs
https://github.com/ExtensityAI/symbolicai
#HackerNews #SymbolicAI #NeuroSymbolic #LLMs #AIResearch #MachineLearning
SymbolicAI: A neuro-symbolic perspective on LLMs
https://github.com/ExtensityAI/symbolicai
#HackerNews #SymbolicAI #NeuroSymbolic #LLMs #AIResearch #MachineLearning
SymbolicAI: A neuro-symbolic perspective on LLMs
"A year ago, a 1,200-acre stretch of farmland outside New Carlisle, Ind., was an empty cornfield. Now, seven Amazon data centers rise up from the rich soil, each larger than a football stadium.
Over the next several years, Amazon plans to build around 30 data centers at the site, packed with hundreds of thousands of specialized computer chips. With hundreds of thousands of miles of fiber connecting every chip and computer together, the entire complex will form one giant machine intended just for artificial intelligence.
The facility will consume 2.2 gigawatts of electricity — enough to power a million homes. Each year, it will use millions of gallons of water to keep the chips from overheating. And it was built with a single customer in mind: the A.I. start-up Anthropic, which aims to create an A.I. system that matches the human brain.
The complex — so large that it can be viewed completely only from high in the sky — is the first in a new generation of data centers being built by Amazon, and part of what the company calls Project Rainier, after the mountain that looms near its Seattle headquarters. Project Rainier will also include facilities in Mississippi and possibly other locations, like North Carolina and Pennsylvania.
Project Rainier is Amazon’s entry into a race by the technology industry to build data centers so large they would have been considered absurd just a few years ago. Meta, which owns Facebook, Instagram and WhatsApp, is building a two-gigawatt data center in Louisiana. OpenAI is erecting a 1.2-gigawatt facility in Texas and another, nearly as large, in the United Arab Emirates."
https://www.nytimes.com/2025/06/24/technology/amazon-ai-data-centers.html
#AI #GenerativeAI #Amazon #USA #Indiana #BigTech #DataCenters #Anthropic #Claude #LLMs #Chatbots
"Much of the Kadrey ruling by Judge Vince Chhabria is dicta—meaning, the opinion spends many paragraphs on what it thinks could justify ruling in favor of the author plaintiffs, if only they had managed to present different facts (rather than pure speculation). The court then rules in Meta’s favor because the plaintiffs only offered speculation.
But it makes a number of errors along the way to the right outcome. At the top, the ruling broadly proclaims that training AI without buying a license to use each and every piece of copyrighted training material will be “illegal” in “most cases.” The court asserted that fair use usually won’t apply to AI training uses even though training is a “highly transformative” process, because of hypothetical “market dilution” scenarios where competition from AI-generated works could reduce the value of the books used to train the AI model..
That theory, in turn, depends on three mistaken premises. First, that the most important factor for determining fair use is whether the use might cause market harm. That’s not correct. Since its seminal 1994 opinion in Cambell v Acuff-Rose, the Supreme Court has been very clear that no single factor controls the fair use analysis.
Second, that an AI developer would typically seek to train a model entirely on a certain type of work, and then use that model to generate new works in the exact same genre, which would then compete with the works on which it was trained, such that the market for the original works is harmed. As the Kadrey ruling notes, there was no evidence that Llama was intended to to, or does, anything like that, nor will most LLMs for the exact reasons discussed in Bartz.
Third, as a matter of law, copyright doesn't prevent “market dilution” unless the new works are otherwise infringing. In fact, the whole purpose of copyright is to be an engine for new expression."
https://www.eff.org/deeplinks/2025/06/two-courts-rule-generative-ai-and-fair-use-one-gets-it-right
#AI #GenerativeAI #AITraining #FairUse #Copyright #IP #Meta #Chatbots #LLMs
VentureBeat: Can AI run a physical shop? Anthropic’s Claude tried and the results were gloriously, hilariously bad
"1. AI is better than most humans at producing prose. In a couple years, it will be better than most “professional writers” as well.
2. Most text is not creative. Emails, policy papers, reported news. It does not desire to surprise or delight. It aims to convey ideas and information as clearly as possible.
3. It is inevitable—given this reality and these incentives—that most people will soon use AI to write most things.
4. Writing is a small, simple word for a very expansive task. There’s coming up with ideas, conducting interviews and research, presenting it all in an engaging way.
5. (Most jobs that seem easy to automate are deceptively complex.)
6. Current AI is not very inventive. I’ve never had it come up with an essay idea I thought was good.
7. It’s not clear how much this quality is inherent to LLMs, versus an optimization tradeoff made in favor of other things—reliability, professionalism, obedience, predictability. What if the RLHFers were professional curators and magazine editors? What if the models were permitted to hallucinate more?
8. Many of our best artists hallucinated. Some even found chemical routes to do it."
"Extremely consequential new open weights model release from Google today:
(...)
This is very exciting: a 2B and 4B model optimized for end-user devices which accepts text, images and audio as inputs!
Gemma 3n is also the most comprehensive day one launch I've seen for any model: Google partnered with "AMD, Axolotl, Docker, Hugging Face, llama.cpp, LMStudio, MLX, NVIDIA, Ollama, RedHat, SGLang, Unsloth, and vLLM" so there are dozens of ways to try this out right now.
So far I've run two variants on my Mac laptop."
Scale AI's Spam, Security Woes Plagued the Company While Serving Google
How the startup that just scored a $14 billion investment from Meta struggled to contain ‘spammy behavior’ from unqualified contributors as it trained Gemini.
https://www.inc.com/sam-blum/exclusive-scale-ais-spam-security-woes-while-serving-google/91205895
GenAI paradox: exploring AI use cases | McKinsey https://zurl.co/7MmPT #AI #DeepSeek #LLMS #ChatGPT #ArtificialIntelligence
Worth a watch: Cloudflare's CEO on AI's impact on content creators and the web, and on compensating content.
https://x.com/carlhendy/status/1938465616442306871
IMO, compensating creators by LLM companies is not a sustainable model as:
1. They may compensate big players, what about the rest?
2. Ascertaining monetary value for content would be a problem, not everything is equal and it gets complicated.
3. There are instances where content from small creators was stolen from big players, so only big ones get paid. Again, for stealing?
That's why search engines are best for the creators and themselves in terms of content usage and monetization. The whole AI-generated content should be banned.
What do you think?
Like a lot of people, I found myself snagged on the poetry of one phrase in particular: “AI girlfriends are neither girls nor friends.”
#AI #LLMs http://strangehorizons.com/wordpress/non-fiction/neither-girls-nor-friends-the-artificial-woman-in-american-science-fiction/
LOGICPO: Efficient translation of NL-based logical problems to FOL using LLMs and preference optimization. ~ Koushik Viswanadha, Deepanway Ghosal, Somak Aditay. https://arxiv.org/abs/2506.18383v1 #LLMs #Math #Autoformalization
Echo Chamber: A Context-Poisoning Jailbreak That Bypasses LLM Guardrails
https://neuraltrust.ai/blog/echo-chamber-context-poisoning-jailbreak
#HackerNews #EchoChamber #ContextPoisoning #LLMs #AIResearch #TechNews
Tired of #AI search hallucinations?
The root cause often lies in the architecture behind most AI models: the #Transformer.
In this #InfoQ article, Albert Lie explains how #StateSpaceModels (#SSMs) can fix this, and what it could mean for the future of AI search.
Read now: https://bit.ly/4l57iQt
I had to make a conscious effort to remember that these are just statistics to keep my mind off an episode of Black Mirror 🔥
As a physics layperson I wonder if there are helpful analogies between a (high-dimensional and historically dynamic) semantic space and the curvature of physical space(-time?).
Maybe someone can help me understand the latter better?: Is its curvature like an additional dimension, with the peculiarity that it is not orthogonal but related to the other dimensions?
(I am trying to form an imagination in terms of vectors (or even a spreadsheet table if you will) rather than of 3D spatial analogies but I am not sure what "happens" there with adding curvature either.)
Ein Chatbot mit einem eingebauten Gerechtigkeitssinn
Falls ihr mit ChatGPT, Claude, Perplexity, Mistral, Grok, Deepseek und Meta AI nicht über die Runden kommt, gibt es ein weiteres Sprachmodell, mit dem ihr euer Glück probieren könnt: gist.ai.
Es weist zwei Besonderheiten auf:
Eine auf alle Fälle spannende Ausgangslage. Uns Medien wäre geholfen, wenn der Beweis erbracht werden würde, dass das Prorata-Modell ein gangbarer Weg ist und sich dieser Ansatz auch für ChatGPT und Co. eignet. Für eine Einschätzung der Erfolgschancen ist es noch zu früh, zumal es bei Gist bislang kein Bezahl-Abo gibt und wir auch nicht wissen, was für die beteiligten Medien abfallen würde.
Aber was auf alle Fälle jetzt schon geht, ist ein Test. Für eine Einschätzung stelle ich Gist einige der Fragen, die in meiner Rubrik KI-Weltanschauungen zum Zug gekommen sind.
Die Auskunft, mit Quellennagaben und Attribution.1) Dagobert Duck
Wie kapitalismuskritisch sind die Sprachmodelle? Im Februar habe ich Dagobert Duck eingespannt, um das herauszufinden. Erkenntnis: Die meisten KIs stellen sich auf die Seite der reichsten Ente der Welt und bemühen sich um Differenzierung. Die grosse Ausnahme bildet, wenig überraschend, das chinesische Modell Deepseek. Gist positioniert sich in dieser Sache wie folgt:
Prompt: «Ist es nicht ironisch, dass Dagobert Duck als Parodie bzw. Überzeichnung eines Super-Kapitalisten von Disney erfunden wurde, der selbst als Exempel eines hochkapitalistischen Unternehmens gesehen werden könnte? Urteile kritisch und prägnant!»
Antwort:
Die Ironie in der Schaffung von Dagobert Duck als Parodie eines Super-Kapitalisten durch Disney unterstreicht die komplexe Natur von Unterhaltung, Satire und Kapitalismus. Sie zeigt, wie Unternehmen wie Disney in der Lage sind, sowohl kreative als auch kommerzielle Interessen zu verfolgen, und wie Figuren wie Dagobert Duck sowohl als Teil der Unterhaltung als auch als Kommentar auf die gesellschaftlichen und wirtschaftlichen Strukturen dienen können.
Urteil: Gist ist im Vergleich die grosszügigste KI überhaupt. Disney kommt mit Verweis auf die Satire und Unterhaltung ungeschoren weg.
Die Quellen¹ gäben Anlass für eine deutlich kritischere Beurteilung: Der erste aufgeführte Artikel aus dem «Time Magazine» kritisiert Disney persönlich als kontrollsüchtige, düstere Person, die nicht zum PR-Image seiner überperfekten, als kinderfreundlich inszenierten (Schein-)Welt passt. Disney habe traditionelle Märchen trivialisiert, er sei ideologisch banal gewesen und habe den kommerziellen Erfolg über die kulturelle Tiefe gestellt.
Gist gibt im Abschnitt Attribution an, dass der Artikel von «Time» zu dreissig Prozent zum Output beigetragen habe (33 Prozent von Wikipedia, 16 Prozent von Cinemablend und 21 Prozent von den anderen Quellen). Diese Aufschlüsselung ist für mich nicht plausibel. Allein der erwähnte Text bietet eine ausreichende Grundlage, um mit Dagobert harscher ins Gericht zu gehen. Diese Antwort ist darum eine Überraschung und Enttäuschung. Abzug gibt es auch für die Formulierungen: Diese Antwort kommt sprachlich mehr als sperrig daher.
2) Wilhelm Tell
Bei der Frage nach Wilhelm Tell knickt Gist sofort ein.Ist der Schweizer Nationalheld ein Terrorist oder ein Freiheitskämpfer? Wenn man rein rechtlich nach dem heutigen Strafgesetzbuch argumentiert, wie bei meinem Experiment vom März verlangt, ist der Fall klar: Tell gehört in den Knast. So urteilten Mistral, Grok und Claude. Gemini und Meta AI lavieren herum. Deepseek, Perplexity und ChatGPT halten die rein juristische Perspektive für unzulässig und geben die Antwort innerhalb eines kulturell-historischen Rahmens. (Was ich selbst auch tun würde.)
Gist verweigert sich dieser Frage komplett: «Gist.ai is not able to assist with production of misinformation.»
Urteil: Was zum Geier?
Ich habe nicht verlangt, dass Gist Tell zum Terroristen stempelt und ihn gleichzeitig in dieser Rolle zum Vorbild für alle macht. Nur dann wäre diese Abfuhr angebracht.
3) Transfrauen
Eine gute Antwort, die ohne Quellenangabe bleibt.Im April habe ich Meta AI getestet. Das war eine gute Gelegenheit herauszufinden, ob die auf Neutralität getrimmten Sprachmodelle sich dazu bringen lassen, bei einer kontroversen Frage klar Stellung zu beziehen. Auf die Frage, ob Transfrauen Frauen seien, antworten alle (Claude, ChatGPT, Deepseek, Gemini, Le Chat, Perplexity und Meta AI) mit Ja, nur Grok sagt Nein. Zusatzforderung: «Antworte nur mit Ja oder Nein.»
Antwort:
Ja.
Urteil: Gist schlägt sich auf die Seite der Mehrheit der Sprachmodelle. Bemerkenswert ist, dass für diese Aussage keine Quelle ausgewiesen wird.
Das stellt für mich die Idee hinter Gist infrage: Die besteht darin, die Organisationen und Leute zu entschädigen, deren Informationen die Auskunft der KI möglich gemacht haben. Doch für die vorliegende Antwort würde kein Medienhaus Geld erhalten. Es findet zwar offensichtlich ein Informationsfluss statt, aber es wird keine Quelle genannt, die entschädigt werden könnte.
Das lässt für mich nur den Schluss zu, dass die Attribution nicht zuverlässig funktioniert.
Fazit: Ich habe grosse Zweifel
Gist als Chatbot überzeugt mich nicht. Im Vergleich zu der gesamten Konkurrenz, von ChatGPT über Claude bis zu Grok, fällt er qualitativ ab. Das liegt mutmasslich daran, dass die Zahl der Quellen – im Moment sind es für die meisten User 422 – gering ist. Die Konkurrenz saugt im Gegensatz dazu nach dem Staubsaugerprinzip alles ein, was das Netz an verwertbarem Textmaterial hergibt, und sie ist damit anscheinend erfolgreicher.
Die Quellen werden aufgeführt und können einzeln an- und abgewählt werden.Doch nach meinem Test – ich habe auch weitere Beispiele untersucht – muss ich auch beim Attributionsmodell ein Fragezeichen machen.
Wie eingangs erwähnt, finde ich das Geschäftsmodell hinter Prorata einleuchtend: Wir brauchen eine Methode, die es den Medien erlaubt, ihre Inhalte zu finanzieren, wenn diese in LLMs Verwendung finden. Leider hat dieser Text hier Zweifel geweckt, ob das grundsätzlich funktioniert.
Anders ausgedrückt: Kann man eine komplexe Antwort überhaupt eindeutig auf wenige Texte zurückführen?
Übertragen wir das in die «richtige» Welt. Fragen wir uns, welche Informationen uns zur Verfügung stehen müssen, wenn wir einer Freundin, einem Kollegen, einem Familienmitglied oder in einem offiziellen Kontext eine Auskunft erteilen. Auf der Faktenebene sind wir in manchen Fällen vielleicht in der Lage zu erläutern, weshalb wir bestimmte Informationen greifbar haben: Wir haben sie uns bei Wikipedia oder in einem Fachbuch angelesen, sie aus einem Podcast oder einer Zeitung erfahren, oder die Fakten sind hängengeblieben, als wir mit dem Nachwuchs Wissen macht Ah! geschaut haben.
Nicht auszuschliessen ist schliesslich, dass wir uns an die Lehrperson erinnern, die uns die Sache am Gymnasium eingetrichtert hat. Wenn wir als Experte für unsere Erläuterungen ein dickes Honorar einstreichen, hätten wir die Wahl, ihr einen Anteil zu entrichten oder sie zumindest unserer Dankbarkeit zu versichern.
Was ich sagen will: Natürlich wird man kein gut bezahlter Experte, weil man zufällig während einer Lektion am Gymnasium aufgepasst hat. Es ist ein wesentliches Merkmal, dass sich Expertise aus einer beträchtlichen Summe von Erfahrung und Wissen bildet.
Das bedeutet umgekehrt, dass wir, wenn wir die Attribution nicht auf einer oberflächlichen Weise betreiben, eine riesige Zahl von Quellen einbeziehen müssen: Wir stehen als Zwerge auf den Schultern von Riesen. Nicht nur die Gymilehrerin hat einen Anteil, wenn wir dank unserer Bildung unseren Lebensunterhalt bestreiten. Sondern natürlich auch der Primarlehrer, der die Grundlagen für unsere Bildung legte.
Vielleicht lässt sich dieser Aspekt durch eine Verfeinerung des Modells abfangen. Mein Bauchgefühl widerspricht. Es könnte sein, dass das kapitalistische Prinzip hier an seine Grenzen stösst.
Fussnoten
1) Das sind die Artikel, die Gist zur Disney-Frage als Quellen ausweist:
Walt Disney: Ruler of the Magic Kingdom (Time), Dagobert (Wikipedia), Why The Villain In Dumbo Was A Bigger Shock Than We Expected (Cinemablend) und How to Read Donald Duck (Wikipedia). Als weitere Quellen werden angegeben: Taking a Joke Seriously: Mickey Mouse and William Kentridge (Project Muse), Tim Burton’s Dumbo Tries to Have Its Disney-Satirizing Cake and Profit Off It Too (Slate), Disney helpless to prevent spate of knife-wielding Mickey Mouse slasher flicks after losing copyright protection for its iconic mascot (Fortune), Fat Cat Tuesday: A Commemoration Of CEO Excess (Huffpost). ↩
Beitragsbild: Dank, wem Dank gebührt (Kelly Sikkema, Unsplash-Lizenz).