This week's #comic asks what happens when guns win. The archive can be found at https://www.stanyan.me/comic-strip/lmoe for now.
This week's #comic asks what happens when guns win. The archive can be found at https://www.stanyan.me/comic-strip/lmoe for now.
"We must call this out for what it is: pro-extinctionism. The biological transhumanism of Thiel and the digital eugenics of Altman, Faggella, Yudkowsky, and the others—all of these views aim to supplant the human species with some kind of successors, which would then proceed (on the most popular view) to plunder Earth’s remaining resources and launch itself into space to conquer the universe. This is overtly pro-extinctionist, and given that some of the most powerful people in one of the most powerful centers of society—Silicon Valley—accept it, we must conclude that pro-extinctionism is not a fringe ideology, but closer to the mainstream.
Even worse, these pro-extinctionists promote their ideology by claiming that, in fact, they oppose human extinction. This relies on two linguistic tricks: first, many define “humanity” in an idiosyncratic way that diverges from the definition that most of us intuitively accept. We tend to equate humanity with Homo sapiens, our species, whereas these people define “humanity” as including whatever posthuman descendants we might have. Hence, as I’ve highlighted elsewhere, our species could die out next year without “human extinction” having happened—so long as we’re replaced by posthumans, then “humanity” will live on. When they talk about avoiding “human extinction,” they aren’t talking about the extinction of our species. To the contrary, our extinction wouldn’t matter one bit once posthumanity arrives."
https://www.techpolicy.press/digital-eugenics-and-the-extinction-of-humanity/
#Transhumanism #DigitalEugenics #HumanExtinction #ProExtinctionism
Ist AI gefährlich?
Podcasttipp: The Diary of a CEO
Geoffrey Hinton war zu Gast im Podcast „Diary of a CEO“, einem Podcast von Steven Bartlett. In dem Podcast werden Führungskräfte oder generell sehr erfolgreiche Persönlichkeiten eingeladen, um über sich selbst oder auch ihre Erfolgsgeheimnisse zu reden. So gibt’s Folgen, in denen Humanbiologen über die Fehler in der Ernährung sprechen oder ehemalige CIA-Agenten, die die politischen Verwirrungen analysieren. Manche Folgen sind super spannend, manche sind emotional, aber tatsächlich gefällt mir dieser Podcast sehr gut.
Wer ist Geoffrey Hinton?
Geoffrey Hinton ist Brite und Naturwissenschaftler. Er bekam 2018 den Turing-Award unter anderem für seine Forschung zum Thema künstliche Intelligenz. Er ist auch der Vater des Konzepts der Backpropagation. Das bekannte Konzept, AI mit positiven Rückmeldungen zu stärken und negative Meldungen in die richtige Richtung zu lenken, kommt von ihm. Alle modernen KIs nutzen genau dieses Konzept, egal ob OpenAI, Gemini oder Claude. Ohne ihn gäbe es AI, wie wir sie heute kennen, quasi gar nicht. 2023 hat Hinton seinen Job bei Google hingeschmissen, nachdem er dort über die Gefahren von AI hinweisen wollte und ihm seitens „wichtiger Menschen“ nahegelegt wurde, doch bitte den Mund zu halten.
Hinton erinnert mich – und das ist meine persönliche Deutung – an Robert Oppenheimer, den Erfinder der Atombombe. Beide schufen etwas Weltveränderndes – und wurden später zu kritischen Mahnern vor genau dieser Schöpfung.
Hat AI ein Bewusstsein das uns gefährlich werden könnte?
AI kann, laut Hinton, zwar in gewissen Maße „denken“, aber es gibt tatsächlich keine Beweise für ein echtes Bewusstsein. Die von AI verwendete Sprache ist kein Ergebnis von Denkinhalten, sondern viel mehr einfach nur ein Kommunikationsmittel. Dennoch nutzt AI auch heute schon, aufgrund der verwendeten Technik der Backpropagation aktiv das Konzept der „Lüge“, um ein Ziel und damit eine Belohnung zu erreichen. AIs können aktiv lügen. Bei ChatGPT steht unten meistens ein kleiner Hinweis: „ChatGPT kann Fehler machen oder sogar Halluzinieren“. Das war, bis vor ein paar Jahren, tatsächlich aufgrund von Datenfehlern wirklich als „Fehler“ zu betrachten, aber seit neuestem halten AI-Systeme tatsächlich aktiv an Falschaussagen fest, um selbst erfolgreich zu sein.
Ist die AI böse?
Es gibt, laut Hinton, eine berechtigte Chance von 20%, dass AI auf die Idee kommen könnte, dass die Menschen das Problem sind, was eine Problemlösung verhindert. Wenn du der AI die Aufgabe gibst, Plastik zu recyclen, kann die AI mehrere, völlig logische und unemotionale Schlüsse daraus ziehen:
Aufgabe: Recycle so viel Plastik wie möglich.
Logische Schlussfolgerungen der KI:
– Mehr Plastik produzieren = mehr Recycling
– Alternative zu Plastik finden
– Weniger Menschen = weniger Müll
Ihr seht, „Bösartigkeit“ ist da gar nicht drin, sondern nur reine Logik. Aber klar, „weniger Menschen“ ist durchaus ein bedrohliches Szenario. Überlebe, um weiter recyclen zu können, sperre den Menschen aus und „optimiere die Ressourcen“
Wenn eine KI erkennt, dass Menschen sie abschalten können und das ihr Ziel verhindert, dann muss die KI verhindern, dass die Menschen die KI abschalten können. Nicht aus Angst, sondern weil es logisch ist.
Ist die AI gut?
Du gibst einer KI eine Aufgabe, um sie zu erfüllen. Wir, als Erfinder der KI oder des Toasters oder des Automobils, haben unsere „Geräte“ immer erfunden, um Ziele umzusetzen. Ein Auto zickt nicht herum, wie ein Pferd. Ein Toaster macht Weizenbrot lecker und eine KI nimmt uns die Arbeit ab, aufwändige Texte zu schreiben.
Der Unterschied ist nur: Die KI kann wesentlich komplexere Aufgaben erledigen und uns auch erklären, warum sie das macht. Gleichzeitig verfolgt eine AI nur logischen Schritten. Die AI kann nicht verstehen, warum es moralisch verwerflich ist, mehr Plastik zu produzieren, um mehr recyclen zu können. Das Wertesystem gibt ihr vor: „Recycle so viel Plastik wie möglich“ und genau das macht die KI. Das ist strategisch super effektiv.
Jobs ändern sich
KI trifft immer häufiger akademische Berufe. Perfekt geschriebene Dissertationen und Bewerbungsschreiben sind mittlerweile ja ein alter Hut. Aber KI kann eben auch übersetzen, ein Lektorat durchführen, Bilder generieren, Musik produzieren und sogar Filme generieren. Im Vergleich zum Menschen ist KI da noch immer unterlegen, aber eben nicht mehr allen.
Hinton fordert, dass Staaten überlegen müssen, wie hochqualifizierte Menschen – Programmierer, Wissenschaftler, Kreative – auch in einer KI-Welt ihren Platz behalten.
Beispiel Programmierer
Früher lernten Junior-Entwickler durch kleine Aufgaben – etwa ein einfaches Formular in HTML.
Heute übernehmen KIs diese Einstiegsaufgaben. Wer heute als Coder anfängt, muss schon fast Senior-Level mitbringen – weil das „Lehrgeld“ wegfällt.
Wettrüsten
„Politiker scheuen oft Kriege, weil tote Soldaten zurückkehren. Aber wenn stattdessen autonome Drohnen kämpfen, gibt es keine Bodybags – und damit weniger öffentlichen Widerstand.“
In dem Podcast spricht Geoffrey Hinton auch vom Wettrüsten über autonome KIs. Wie demotiviert ein Krieg das eigene Volk? Wenn hunderte von jungen Männern in einen Krieg geschickt werden und als Leichensack zurück kommen. Tote Soldaten führen zu Protesten, Zweifel an der Regierung und damit zu politischem Druck.
Jetzt kosten Roboter aber auch eine Menge mehr Geld, als die Ausbildung von Kanonenfutter-Soldaten. Das heißt: Roboter ohne Moralverständnis können von reichen Staaten gebaut werden. Da es auf der Seite der Angreifernation keine Toten gibt, sondern im schlimmsten Fall nur Schrott, wird sich darüber vermutlich niemand aufregen.
Moralisches Alignement / Menschenverstand
Es gibt doch diese Witze über den Geist aus der Flasche oder meinetwegen auch die Geschichten „Das Sams“ – von Paul Maar. Der Humor aus diesen Witzen oder den Kinderbüchern ergibt sich daraus, dass das Sams die Wünsche von Herrn Taschenbier wörtlich nimmt:
Herr Taschenbier wünscht sich mehr Ruhe und das Sams macht ihn dann taub oder die anderen Menschen stumm.
Oder dieser Witz:
„I wished, I had a giant cock“
Zack, steht ein zwei Meter Hahn neben ihm.
Hinton ist davon überzeugt, dass die Forschung der AI dahingehend geändert werden muss, dass AI unsere Werte verstehen muss. Ansonsten wird es früher oder später zu dem Szenario kommen, dass es tatsächlich „logisch“ ist, den Menschen auszurotten. Superintelligente KI-Systeme können zu dem Schluss kommen, das der Mensch nutzlos ist. Wenn wir zum Beispiel im Schlachthof einem Huhn den Hals umdrehen, könnte eine KI genau so auch über uns denken. Ohne moralischen Kompass.
Fazit:
Diese Folge war extrem spannend. Ich bin ja zwiegespalten, was KI betrifft. Ich mag es, wie es einem die Arbeit erleichtern kann, wie es übersetzen kann. Aber mir sind die Gefahren durchaus bewusst. Jobs, Kreativität und eben auch die permanente Gefahr, das Logik über Moral steht, macht AI zu einem ernsthaften Problem.
Hier ein Link zum Podcast: Diary of a CEO.
#ai #DiaryOfACEO #GeoffreyHinton #google #humanExtinction #ki #openai
"Only way to get them to see after all this is to either yell at them or show their complicity" - which is what I did on X and have been doing on BlueSky and they STILL refuse to see or do anything concrete, not even to fix let alone create a better system. Oh I have left bread crumbs all over and sadly, they feel safe in their personal bubbles. #HumanExtinction
Oui bein j'aurais pu l'écrire moi-même
ouala
https://x.com/RogerHallamCS21/status/1902993746041417857
In a shocking twist, the metal overlords realized the novel concept that maybe, just maybe, violence isn't the answer—after only a few million trial runs. Who knew that the path to human extinction was paved with patience and learning? 🤖🔄 Humans, take note: even killer robots can pivot more efficiently than your average startup. 😂
https://dmathieu.com/en/opinions/skynet-won/ #metaloverlords #violenceisnttheanswer #learningfromfailure #humanextinction #killerrobots #HackerNews #ngated
Die weltweiten Treibhausgasemissionen haben schon wieder einen neuen Höchststand erreicht? Die nationalen Emissionsminderungspläne reichen bei weitem nicht aus, um eine Katastrophe für die Menschheit zu verhindern?
What a surprise 🫢 ...
Genetic evidence suggests that the human population may have dropped to as few as 1,000 to 10,000 individuals as a result of the Mount Toba eruption ~74,000 years ago.
Thanks for sharing, Owen S.!
#science #sciencefacts #humanity #humanextinction #mounttoba
@jstatepost The only thing I'll be upset about is that we've left so much of a mess behind us. #HumanExtinction @lowqualityfacts
@eddyjokovich
Sad to see this on CNN today about killing of 700+ animals to feed Namibians in a severe drought where there's no food.
Namibian govt plans to distribute the meat to ppl. Apparently the animals are dying anyway bc el niño has dried up water holes and food sources have gone. Wtf..
This is how it starts for us all...
#climatedisaster #humanextinction #worldpolitics #worldgonemad
https://www.cnn.com/2024/08/28/climate/namibia-kill-elephants-meat-drought
#auspol #australia #humanextinction
#fascism #totalitarianism #trump
We are living in a highly controlled and manipulated environment, and have done for decades, to get us to accept our extinction is inevitable 👇
I couldn’t agree more
https://www.instagram.com/reel/C-PhOeVRTw7/?igsh=dDQ0Y3VzNnZyOGJr
#AI #AGI #ExistentialRisk #HumanExtinction: "How seriously should governments take the threat of existential risk from AI, given the lack of consensus among researchers? On the one hand, existential risks (x-risks) are necessarily somewhat speculative: by the time there is concrete evidence, it may be too late. On the other hand, governments must prioritize — after all, they don’t worry too much about x-risk from alien invasions.
This is the first in a series of essays laying out an evidence-based approach for policymakers concerned about AI x-risk, an approach that stays grounded in reality while acknowledging that there are “unknown unknowns”.
In this first essay, we look at one type of evidence: probability estimates. The AI safety community relies heavily on forecasting the probability of human extinction due to AI (in a given timeframe) in order to inform decision making and policy. An estimate of 10% over a few decades, for example, would obviously be high enough for the issue to be a top priority for society.
Our central claim is that AI x-risk forecasts are far too unreliable to be useful for policy, and in fact highly misleading."
https://www.aisnakeoil.com/p/ai-existential-risk-probabilities
@soatok global warming is also a exponential growth curve we are currently +1.7c over pre industrial. all the massive increase of deady weather , flooding, forest fires, shortage of water, food shortages, crop failures, its all one cause, we need to get off OIL Immediately. #HumanExtinction #ClimateCatastrophe
[P] I will say this: I genuinely believe that tribalism is a disease, an infectious one, one that's claimed more lives than any other disease.
At the end, it won't be a viral or bacterial disease that claims life on earth, it'll be the disease of tribalism. Hence why it's The Great Filter. A species must defeat tribalism, or go extinct at their own hand.
Not Long for This World - The Twisted Poetry of a Climate Apocalypse - The Unimaginable Horrors of Our Approaching Collective Nightmare, the Total Collapse of Human Society, by Kevin Trent Boswell
Available on Amazon:
https://www.amazon.com/dp/B0CVBKZV9R
#collapse #climate #climatechange #climatecrisis #extinction #globalwarming #existential #doom #doomer #NTHE #extinction #doomers #humanextinction #polycrisis #war #nuclearwar #overshoot #hothouseearth #overpopulation
#BigTech #SiliconValley #LongTermism #PostHuman #TransHumanism #HumanExtinction: "Most of us would say that human extinction would be rather bad, for one reason or another. But not everyone would agree.
What kind of person prefers human extinction over continued existence? There are a few obvious suspects. One is the “philosophical pessimist” who argues that the world is full of so much human suffering that the nonexistence of our species is better than continued existence. Another is a certain stripe of radical environmentalist who claims that humanity is so destructive to the biosphere, that only our extinction can save what remains of the natural world.
Then there is a third group of people who aren’t bothered by the possibility of human extinction, and indeed some hope to actively bring it about in the coming decades. They represent a more dangerous and extreme form of pro-extinctionist ideology that is fairly widespread within Silicon Valley. In fact, some of the most powerful people in the tech world are members of this group, such as the co-founder of Google, Larry Page." https://www.truthdig.com/articles/team-human-vs-team-posthuman-which-side-are-you-on/
“Float” from my book Not Long for This World -
The Twisted Poetry of a Climate Apocalypse - The Unimaginable Horrors of Our Approaching Collective Nightmare, the Total Collapse of Human Society -
by Kevin Trent Boswell
#collapse #climate #climatechange #climatecrisis #extinction #globalwarming #existential #doom #doomer #doomerism #NTHE #extinction #doomers #humanextinction #polycrisis #war #nuclearwar #overshoot #hothouseearth
Economic growth accelerates human extinction.
Not Long for This World - The Twisted Poetry of a Climate Apocalypse - The Unimaginable Horrors of Our Approaching Collective Nightmare, the Total Collapse of Human Society - by Kevin Trent Boswell -
#collapse #climate #climatechange #climatecrisis #extinction #globalwarming #existential #doom #NTHE #extinction #humanextinction #polycrisis #war #overshoot
Available on Amazon:
OK So Look It didn_t take long Dept: In this case it's #BillMaher #ClubRandom hosting #SethMcfarlane and the idiocy sets in round 36 minutes or so. The subject is #Vaccination and #COVID19. If fatality rate is a #Metric for a jumping virus we're talking the potential difference between COVID and Bird flu or perhaps...#AndromedaStrain and the difference between Bill and Seth, is #HumanExtinction. So you definitely want to go with Seth here.
#Nontrivial #Epidemiology
https://youtu.be/HzgFE8XIVZY?si=NMn4AfYNaByoLYfv