#humanextinction

2026-01-19

They Want To End The Human Race

Tech billionaires are planning for a future where humans don’t exist and they’re already building it

Under this ideology, human obsolescence is framed as progress, while billionaires like Elon Musk, Sam Altman, Peter Thiel, and Mark Zuckerberg prepare to outlive the collapse they are helping to create

youtube.com/watch?v=W1dIC287Zz0

#TaylorLorenz #FuckAI #TaxTheRich #PostHuman #OpenAI #Tesla #TransHumanism #AIideology #HumanExtinction #TechBillionaires #TESCREALism

Light for the Last DaysLftLD@masto.ai
2025-10-27

This Month in Prophecy – October 2025

 Trump’s peace process. Is it peace to Israel and Gaza or a covenant with death?
Comments on Isaiah 28:14-22.
 Signs of the last days prophecies happening now in the nations – nations falling apart
and coming together.
 AI, Global ID and the progress towards the 666 antichrist control system.

#AI #HumanExtinction #SignsOfTheTimes #thismonthinprophecy

lightforthelastdays.co.uk/vide

2025-10-20

[🇬🇧] #TournesolApp Video recommendation of the week

The story of Omega-L and Omega-W
by Rational Animations
tournesol.app/entities/yt:uiPhOk1t3GU

42🌻
(Better score than 99.1% of all evaluated English videos)

#AI #AISafety #GPT4 #HumanExtinction

Miguel Afonso Caetanoremixtures@tldr.nettime.org
2025-10-18

"In evangelizing for their view, longtermist luminaries have propagated numerous lies about their ideology and/or community. For example, folks like MacAskill intentionally deceived people (see this article of mine for details) by perpetuating the falsehood that Sam Bankman-Fried — perhaps the most famous longtermist in the world — lived a modest life, when in fact he flew on private jets, lived in a “$35 million crypto frat house,” and owned some $300 million in Bahamian real estate. Pfff.

Because many longtermists, including MacAskill, are basically utilitarians, they don’t believe there’s anything intrinsically wrong with acts like lying — or fraud. If the outcome of spreading lies is overall good, then it would be morally wrong to not lie. Hence, do not trust anything that longtermists tell you about their worldview or community, as moral integrity is not — with history as our witness — something they care much about.

Here are three other insidious lies they’ve spread about their worldview. To my knowledge, this is the first time that anyone has called out such falsehoods:"

realtimetechpocalypse.com/p/th

#LongTermism #Philosophy #HumanExtinction #Religion #Ideology

Stan Yan - kidlit GNszombicatures@mas.to
2025-07-19

This week's #comic asks what happens when guns win. The archive can be found at stanyan.me/comic-strip/lmoe for now.

#guncontrol
#apocalypse
#humanextinction

Miguel Afonso Caetanoremixtures@tldr.nettime.org
2025-07-14

"We must call this out for what it is: pro-extinctionism. The biological transhumanism of Thiel and the digital eugenics of Altman, Faggella, Yudkowsky, and the others—all of these views aim to supplant the human species with some kind of successors, which would then proceed (on the most popular view) to plunder Earth’s remaining resources and launch itself into space to conquer the universe. This is overtly pro-extinctionist, and given that some of the most powerful people in one of the most powerful centers of society—Silicon Valley—accept it, we must conclude that pro-extinctionism is not a fringe ideology, but closer to the mainstream.

Even worse, these pro-extinctionists promote their ideology by claiming that, in fact, they oppose human extinction. This relies on two linguistic tricks: first, many define “humanity” in an idiosyncratic way that diverges from the definition that most of us intuitively accept. We tend to equate humanity with Homo sapiens, our species, whereas these people define “humanity” as including whatever posthuman descendants we might have. Hence, as I’ve highlighted elsewhere, our species could die out next year without “human extinction” having happened—so long as we’re replaced by posthumans, then “humanity” will live on. When they talk about avoiding “human extinction,” they aren’t talking about the extinction of our species. To the contrary, our extinction wouldn’t matter one bit once posthumanity arrives."

techpolicy.press/digital-eugen

#Transhumanism #DigitalEugenics #HumanExtinction #ProExtinctionism

2025-06-16

Ist AI gefährlich?

Podcasttipp: The Diary of a CEO

Geoffrey Hinton war zu Gast im Podcast „Diary of a CEO“, einem Podcast von Steven Bartlett. In dem Podcast werden Führungskräfte oder generell sehr erfolgreiche Persönlichkeiten eingeladen, um über sich selbst oder auch ihre Erfolgsgeheimnisse zu reden. So gibt’s Folgen, in denen Humanbiologen über die Fehler in der Ernährung sprechen oder ehemalige CIA-Agenten, die die politischen Verwirrungen analysieren. Manche Folgen sind super spannend, manche sind emotional, aber tatsächlich gefällt mir dieser Podcast sehr gut.

Wer ist Geoffrey Hinton?

Geoffrey Hinton ist Brite und Naturwissenschaftler. Er bekam 2018 den Turing-Award unter anderem für seine Forschung zum Thema künstliche Intelligenz. Er ist auch der Vater des Konzepts der Backpropagation. Das bekannte Konzept, AI mit positiven Rückmeldungen zu stärken und negative Meldungen in die richtige Richtung zu lenken, kommt von ihm. Alle modernen KIs nutzen genau dieses Konzept, egal ob OpenAI, Gemini oder Claude. Ohne ihn gäbe es AI, wie wir sie heute kennen, quasi gar nicht. 2023 hat Hinton seinen Job bei Google hingeschmissen, nachdem er dort über die Gefahren von AI hinweisen wollte und ihm seitens „wichtiger Menschen“ nahegelegt wurde, doch bitte den Mund zu halten.

Hinton erinnert mich – und das ist meine persönliche Deutung – an Robert Oppenheimer, den Erfinder der Atombombe. Beide schufen etwas Weltveränderndes – und wurden später zu kritischen Mahnern vor genau dieser Schöpfung.

Hat AI ein Bewusstsein das uns gefährlich werden könnte?

AI kann, laut Hinton, zwar in gewissen Maße „denken“, aber es gibt tatsächlich keine Beweise für ein echtes Bewusstsein. Die von AI verwendete Sprache ist kein Ergebnis von Denkinhalten, sondern viel mehr einfach nur ein Kommunikationsmittel. Dennoch nutzt AI auch heute schon, aufgrund der verwendeten Technik der Backpropagation aktiv das Konzept der „Lüge“, um ein Ziel und damit eine Belohnung zu erreichen. AIs können aktiv lügen. Bei ChatGPT steht unten meistens ein kleiner Hinweis: „ChatGPT kann Fehler machen oder sogar Halluzinieren“. Das war, bis vor ein paar Jahren, tatsächlich aufgrund von Datenfehlern wirklich als „Fehler“ zu betrachten, aber seit neuestem halten AI-Systeme tatsächlich aktiv an Falschaussagen fest, um selbst erfolgreich zu sein.

Ist die AI böse?

Es gibt, laut Hinton, eine berechtigte Chance von 20%, dass AI auf die Idee kommen könnte, dass die Menschen das Problem sind, was eine Problemlösung verhindert. Wenn du der AI die Aufgabe gibst, Plastik zu recyclen, kann die AI mehrere, völlig logische und unemotionale Schlüsse daraus ziehen:

Aufgabe: Recycle so viel Plastik wie möglich.
Logische Schlussfolgerungen der KI:
– Mehr Plastik produzieren = mehr Recycling
– Alternative zu Plastik finden
– Weniger Menschen = weniger Müll

Ihr seht, „Bösartigkeit“ ist da gar nicht drin, sondern nur reine Logik. Aber klar, „weniger Menschen“ ist durchaus ein bedrohliches Szenario. Überlebe, um weiter recyclen zu können, sperre den Menschen aus und „optimiere die Ressourcen“

Wenn eine KI erkennt, dass Menschen sie abschalten können und das ihr Ziel verhindert, dann muss die KI verhindern, dass die Menschen die KI abschalten können. Nicht aus Angst, sondern weil es logisch ist.

Ist die AI gut?

Du gibst einer KI eine Aufgabe, um sie zu erfüllen. Wir, als Erfinder der KI oder des Toasters oder des Automobils, haben unsere „Geräte“ immer erfunden, um Ziele umzusetzen. Ein Auto zickt nicht herum, wie ein Pferd. Ein Toaster macht Weizenbrot lecker und eine KI nimmt uns die Arbeit ab, aufwändige Texte zu schreiben.

Der Unterschied ist nur: Die KI kann wesentlich komplexere Aufgaben erledigen und uns auch erklären, warum sie das macht. Gleichzeitig verfolgt eine AI nur logischen Schritten. Die AI kann nicht verstehen, warum es moralisch verwerflich ist, mehr Plastik zu produzieren, um mehr recyclen zu können. Das Wertesystem gibt ihr vor: „Recycle so viel Plastik wie möglich“ und genau das macht die KI. Das ist strategisch super effektiv.

Jobs ändern sich

KI trifft immer häufiger akademische Berufe. Perfekt geschriebene Dissertationen und Bewerbungsschreiben sind mittlerweile ja ein alter Hut. Aber KI kann eben auch übersetzen, ein Lektorat durchführen, Bilder generieren, Musik produzieren und sogar Filme generieren. Im Vergleich zum Menschen ist KI da noch immer unterlegen, aber eben nicht mehr allen.

Hinton fordert, dass Staaten überlegen müssen, wie hochqualifizierte Menschen – Programmierer, Wissenschaftler, Kreative – auch in einer KI-Welt ihren Platz behalten.

Beispiel Programmierer

Früher lernten Junior-Entwickler durch kleine Aufgaben – etwa ein einfaches Formular in HTML.
Heute übernehmen KIs diese Einstiegsaufgaben. Wer heute als Coder anfängt, muss schon fast Senior-Level mitbringen – weil das „Lehrgeld“ wegfällt.

Wettrüsten

„Politiker scheuen oft Kriege, weil tote Soldaten zurückkehren. Aber wenn stattdessen autonome Drohnen kämpfen, gibt es keine Bodybags – und damit weniger öffentlichen Widerstand.“

In dem Podcast spricht Geoffrey Hinton auch vom Wettrüsten über autonome KIs. Wie demotiviert ein Krieg das eigene Volk? Wenn hunderte von jungen Männern in einen Krieg geschickt werden und als Leichensack zurück kommen. Tote Soldaten führen zu Protesten, Zweifel an der Regierung und damit zu politischem Druck.

Jetzt kosten Roboter aber auch eine Menge mehr Geld, als die Ausbildung von Kanonenfutter-Soldaten. Das heißt: Roboter ohne Moralverständnis können von reichen Staaten gebaut werden. Da es auf der Seite der Angreifernation keine Toten gibt, sondern im schlimmsten Fall nur Schrott, wird sich darüber vermutlich niemand aufregen.

Moralisches Alignement / Menschenverstand

  • Wir sagen: „Mach dieses Krankenhaus effizienter!“
  • Die KI sagt: „Wir behandeln nur noch junge, halbwegs gesunde Menschen, die kosten weniger“

Es gibt doch diese Witze über den Geist aus der Flasche oder meinetwegen auch die Geschichten „Das Sams“ – von Paul Maar. Der Humor aus diesen Witzen oder den Kinderbüchern ergibt sich daraus, dass das Sams die Wünsche von Herrn Taschenbier wörtlich nimmt:

Herr Taschenbier wünscht sich mehr Ruhe und das Sams macht ihn dann taub oder die anderen Menschen stumm.

Oder dieser Witz:

„I wished, I had a giant cock“

Zack, steht ein zwei Meter Hahn neben ihm.

Hinton ist davon überzeugt, dass die Forschung der AI dahingehend geändert werden muss, dass AI unsere Werte verstehen muss. Ansonsten wird es früher oder später zu dem Szenario kommen, dass es tatsächlich „logisch“ ist, den Menschen auszurotten. Superintelligente KI-Systeme können zu dem Schluss kommen, das der Mensch nutzlos ist. Wenn wir zum Beispiel im Schlachthof einem Huhn den Hals umdrehen, könnte eine KI genau so auch über uns denken. Ohne moralischen Kompass.

Fazit:

Diese Folge war extrem spannend. Ich bin ja zwiegespalten, was KI betrifft. Ich mag es, wie es einem die Arbeit erleichtern kann, wie es übersetzen kann. Aber mir sind die Gefahren durchaus bewusst. Jobs, Kreativität und eben auch die permanente Gefahr, das Logik über Moral steht, macht AI zu einem ernsthaften Problem.

Hier ein Link zum Podcast: Diary of a CEO.

#ai #DiaryOfACEO #GeoffreyHinton #google #humanExtinction #ki #openai

AI generated image of a man and an AI doing things
2025-05-23

"Only way to get them to see after all this is to either yell at them or show their complicity" - which is what I did on X and have been doing on BlueSky and they STILL refuse to see or do anything concrete, not even to fix let alone create a better system. Oh I have left bread crumbs all over and sadly, they feel safe in their personal bubbles.

N-gated Hacker Newsngate
2025-03-05

In a shocking twist, the metal overlords realized the novel concept that maybe, just maybe, violence isn't the answer—after only a few million trial runs. Who knew that the path to human extinction was paved with patience and learning? 🤖🔄 Humans, take note: even killer robots can pivot more efficiently than your average startup. 😂
dmathieu.com/en/opinions/skyne

2024-10-28

Die weltweiten Treibhausgasemissionen haben schon wieder einen neuen Höchststand erreicht? Die nationalen Emissionsminderungspläne reichen bei weitem nicht aus, um eine Katastrophe für die Menschheit zu verhindern?
What a surprise 🫢 ...

unfccc.int/news/new-un-climate

2024-10-27

Genetic evidence suggests that the human population may have dropped to as few as 1,000 to 10,000 individuals as a result of the Mount Toba eruption ~74,000 years ago.

Thanks for sharing, Owen S.!

#science #sciencefacts #humanity #humanextinction #mounttoba

The Living DudBackFromTheDud@mas.to
2024-10-03

@jstatepost The only thing I'll be upset about is that we've left so much of a mess behind us. #HumanExtinction @lowqualityfacts

2024-08-29

@eddyjokovich
Sad to see this on CNN today about killing of 700+ animals to feed Namibians in a severe drought where there's no food.
Namibian govt plans to distribute the meat to ppl. Apparently the animals are dying anyway bc el niño has dried up water holes and food sources have gone. Wtf..
This is how it starts for us all...

#climatedisaster #humanextinction #worldpolitics #worldgonemad

cnn.com/2024/08/28/climate/nam

Steve Brennansjbone@aus.social
2024-08-25

#auspol #australia #humanextinction
#fascism #totalitarianism #trump

We are living in a highly controlled and manipulated environment, and have done for decades, to get us to accept our extinction is inevitable 👇
I couldn’t agree more

instagram.com/reel/C-PhOeVRTw7

Miguel Afonso Caetanoremixtures@tldr.nettime.org
2024-07-27

#AI #AGI #ExistentialRisk #HumanExtinction: "How seriously should governments take the threat of existential risk from AI, given the lack of consensus among researchers? On the one hand, existential risks (x-risks) are necessarily somewhat speculative: by the time there is concrete evidence, it may be too late. On the other hand, governments must prioritize — after all, they don’t worry too much about x-risk from alien invasions.

This is the first in a series of essays laying out an evidence-based approach for policymakers concerned about AI x-risk, an approach that stays grounded in reality while acknowledging that there are “unknown unknowns”.

In this first essay, we look at one type of evidence: probability estimates. The AI safety community relies heavily on forecasting the probability of human extinction due to AI (in a given timeframe) in order to inform decision making and policy. An estimate of 10% over a few decades, for example, would obviously be high enough for the issue to be a top priority for society.

Our central claim is that AI x-risk forecasts are far too unreliable to be useful for policy, and in fact highly misleading."

aisnakeoil.com/p/ai-existentia

2024-07-06

@soatok global warming is also a exponential growth curve we are currently +1.7c over pre industrial. all the massive increase of deady weather , flooding, forest fires, shortage of water, food shortages, crop failures, its all one cause, we need to get off OIL Immediately. #HumanExtinction #ClimateCatastrophe

Weary Wulfwearywulf
2024-05-03

[P] I will say this: I genuinely believe that tribalism is a disease, an infectious one, one that's claimed more lives than any other disease.

At the end, it won't be a viral or bacterial disease that claims life on earth, it'll be the disease of tribalism. Hence why it's The Great Filter. A species must defeat tribalism, or go extinct at their own hand.

Trent BoswellTrentBoswell
2024-04-17

Not Long for This World - The Twisted Poetry of a Climate Apocalypse - The Unimaginable Horrors of Our Approaching Collective Nightmare, the Total Collapse of Human Society, by Kevin Trent Boswell

Available on Amazon:
amazon.com/dp/B0CVBKZV9R

Not Long for This World, by Kevin Trent Boswell Not Long for This World, by Kevin Trent Boswell Not Long for This World, by Kevin Trent Boswell

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst