#SETIHome

2026-01-21

Ascoltare lo spazio per segnali di intelligenze extraterrestri. Tutti in cerca di ET, i risultati preliminari della campagna crowd-souced di UC Berkeley per ventun anni di Seti@home. Dal 1999 al 2020 milioni di persone hanno messo a disposizione i loro computer per analizzare i segnali radio dell’Osservatorio di Arecibo alla ricerca di civiltà...

scienzamagia.eu/scienza-e-tecn

#Arecibo #crowdsourcing #Dopplerdrift #fastradioburst #intelligenzeextraterrestri #MaxPlanckInstitute #Setihome #tecnofirme

2026-01-16

@Sebastian hatte ich. Ist aber sehr lange her. Dann haben die das irgendwie auf so ein anonymes Ding umgestellt, keine Grafik mehr, da habe ich es wieder deinstalliert. #seti #Setihome

Science Fiction Club Deutschland e.V.sfcd.eu@bsky.brid.gy
2026-01-16

21 Jahre lang analysierten private Rechner Daten aus dem Weltall nach Spuren von Außerirdischen. Die verheißungsvollsten Signale werden jetzt überprüft. #sfcd #seti #aliens #setihome

SETI@home veröffentlicht Ergeb...

Paula Gentle on Friendicagehrke_test@libranet.de
2026-01-15
2026-01-13

UC Berkeley: For 21 years, enthusiasts used their home computers to search for ET. UC Berkeley scientists are homing in on 100 signals they found.. “UC Berkeley’s SETI@home, one of the most popular crowd-sourced research projects ever, turned up some 12 billion signals of interest. A lengthy analysis found 100 worth another look.”

https://rbfirehose.com/2026/01/13/uc-berkeley-for-21-years-enthusiasts-used-their-home-computers-to-search-for-et-uc-berkeley-scientists-are-homing-in-on-100-signals-they-found/
2025-11-27

I want SETI@Home back now! #setihome

2023-05-11

@swampwoman I share my modest laptop.

I've set BOINC to run whenever is is on charge, and laptop is set to float its battery at 60% full (for minimal degradation), so there is no downside really :-)

Before that it was #setihome

2023-04-15

@MetaGer @ankedb @chpietsch

„Jede Frage an #ChatGPT benötigt 1000 Mal mehr Strom als eine Suchanfrage bei Google. Für jede Antwort, die man von dem Chatbot erhält, könnte man ein Smartphone bis zu 60-mal aufladen.“ Die Zeit 14/2023 S. 52


bildung.social/@chr/1101858522…

Was den Vergleich mit Smartphones angeht. Vor ein Paar Monaten hat der Journalist im Deutschlandfunk für die Reduzierung des Stromverbrauchs empfohlen die Videos auf Tablets oder Smartphones statt auf dem riesigen Fernsehbildschirm anzuschauen. Ich erinnere mich in diesem Zusammenhang an die Anfänge von Google, als Google ihre Rechenfarmen aus handelsüblichen PC's gebaut hat.

Da die Smartphones über beträchtliche Rechenleistung, die über längere Strecken ungenutzt ist, verfügen, bin ich an einer validen Einschätzung, Prüfung interessiert, ob es aus Umweltgründen machbar und sinnvoll ist, die Datenverarbeitung in verteilten Netzwerken, die aus aktiven oder auch nicht mehr genuzten Smartphones gebaut sind, durchzuführen. Es gibt doch Beispiele aus der Praxis wie SETI@home und Federated Machine Learning en.wikipedia.org/wiki/Federate… .

#SETIhome #ChatGPTStromverbrauch #ChatGPTDiary #FederatedMachineLearning

2023-01-22

Результаты традиционного забега конца января в распределенных вычислениях: дожал суммарную статистику очков до 12 миллионов. При наличии только дискретной видеокарты Nvidia в ноутбуке считается неспешно.
Собрал статистику за всю почти 20-летнюю историю участия в добровольных вычислениях на благо науки: gvard.github.io
В качестве исторического артефакта — сертификат о вычислении 100 задач SETI@home от 25 июля 2004 года: web.archive.org

Продолжаем греть камни!
boincstats.com #SETI@home #tsc #overclockers #BOINC #DistributedComputing

neue medienordnung plusnmoplus@realtime.fyi
2023-01-18
@linus
Die Begründung GPT 3 nicht open source zu machen war, dass es zu "gefährlich" wäre bezüglich Fakenews und co.
Habe diese Diskussion An Open-Source Version of ChatGPT is Coming [1] vom 31.12.2022 auf #^https://www.reddit.com/ zu
#^https://github.com/lucidrains/PaLM-rlhf-pytorch entdeckt. Leider sagen mir die Namen der Diskussionsteilnehmer nichts und die Kommentare in diesem Thread klingen in meinen Ohren zu technisch. Ich hätte gern eine Zusammenfassung, eine knackige Roadmap dazu, wer, was, mit welchen mitteln jetzt startet bzw. starten möchte. Damit ich in der Rolle als Anwender einen Eindruck hätte, wann kann ich mich einbringen, um - genau so, wie ich das aktuell für  ChatGPT OpenAI mache, das OpenSource-Sprachmodell trainieren kann. In der Diskussion hier [1]  wird thematisiert, dass hier eine Herausforderung ist
Wir brauchen immer noch Millionen von Dollar an Rechenleistung + Daten, um zum richtigen Punkt im hochdimensionalen Parameterraum zu segeln.
Mir fehlt das Fachwissen dazu, aber mich würde interessieren inwieweit für dieses Projekt brauchbar und machbar ist, das die verteilte Rechenleistung hier herangezogen wird.
Sie sprechen darüber, wie schwer es ist, dies zu trainieren, aber könnte nicht eine verteilte Client-basierte Lösung wie BOINC verwendet werden (dh was SETI@Home verwendet?). Ich bin mir sicher, dass alle von huggingface diesen Client herunterladen würden, um etwas beizutragen. Vielleicht würden diejenigen, die tatsächlich Rechenressourcen für den Job beisteuern, eine Vorschau auf die frühe Version erhalten?
Ressourcen: #^https://arxiv.org/abs/2103.08894
Zitiert ein Beitrag von Thistleknot von [1], übersetzt im Chromium-Browser.

Hier Übersetzung des Beitrags des PaLM-rlhf-pytorch-Entwicklers @lucidrains im Thread [1]
Dennoch ist es für den Durchschnittsbürger trügerisch, ihm zu sagen, dass die Chatgpt-Replikation unmittelbar bevorsteht. Guter Code ist nur eine Voraussetzung, um die Reise zu beginnen. es braucht Daten, Berechnungen, Abenteurer, um tatsächlich in See zu stechen, und im Fall von ChatGPT einen komplizierten Prozess des Sammelns von menschlichem Feedback (ich werde mein Bestes tun, um die Aktivierungsenergie zu senken, indem ich eine einfache und prägnante App baue, die alle Fälle abdeckt, vorausgesetzt, RLHF wird nicht durch eine andere Technik veraltet)
Übersetzt mit Deepl.com

#ChatGPTOpenSource #OpenSourceChatGPT #OpenSourceSprachmodell #OpenSourceModell #OpenSource #SETIatHome #SETI@Home #VolunteerComputing #MachineLearning #ArtificialIntelligence  #KünstlicheIntelligenz #MaschinellesLernen #DeepLearning #VolunteerComputing #Huggingface

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst