#Perceptron

2025-05-13
The first-ever application of artificial neural networks--Rosenblatt's perceptron--was military: to identify potential targets from satellite imagery.

#AI #NeuralNetworks #ANN #perceptron #military #ComputerScience
Søren Kjærsgaardoz1lqo@techhub.social
2025-04-21

Stumbled across an article describing the ‘ADALINE’ #perceptron emulator, an analogue circuit, made entirely by a resistor and potentiometer network.

Being from the early 60’s, there’s not much information to be found these days on the device, but I managed to build it pretty much the way it was - at least I think so 😎👍🏼

It’s quite fun to train and test with different patterns - units like these are the vintage foundation of modern neural networks, AI and language models.

#LLM #AI #neuralnetworks #electronics #electronicsengineering #testandmeasurement

Pequeños y grandes pasos hacia el imperio de la inteligencia artificial

Fuente: Open Tech

Traducción de la infografía:

  • 1943 – McCullock y Pitts publican un artículo titulado Un cálculo lógico de ideas inmanentes en la actividad nerviosa, en el que proponen las bases para las redes neuronales.
  • 1950 – Turing publica Computing Machinery and Intelligence, proponiendo el Test de Turing como forma de medir la capacidad de una máquina.
  • 1951 – Marvin Minsky y Dean Edmonds construyen SNAR, la primera computadora de red neuronal.
  • 1956 – Se celebra la Conferencia de Dartmouth (organizada por McCarthy, Minsky, Rochester y Shannon), que marca el nacimiento de la IA como campo de estudio.
  • 1957 – Rosenblatt desarrolla el Perceptrón: la primera red neuronal artificial capaz de aprender.

(!!) Test de Turing: donde un evaluador humano entabla una conversación en lenguaje natural con una máquina y un humano.

  • 1965 – Weizenbaum desarrolla ELIZA: un programa de procesamiento del lenguaje natural que simula una conversación.
  • 1967 – Newell y Simon desarrollan el Solucionador General de Problemas (GPS), uno de los primeros programas de IA que demuestra una capacidad de resolución de problemas similar a la humana.
  • 1974 – Comienza el primer invierno de la IA, marcado por una disminución de la financiación y del interés en la investigación en IA debido a expectativas poco realistas y a un progreso limitado.
  • 1980 – Los sistemas expertos ganan popularidad y las empresas los utilizan para realizar previsiones financieras y diagnósticos médicos.
  • 1986 – Hinton, Rumelhart y Williams publican Aprendizaje de representaciones mediante retropropagación de errores, que permite entrenar redes neuronales mucho más profundas.

(!!) Redes neuronales: modelos de aprendizaje automático que imitan el cerebro y aprenden a reconocer patrones y hacer predicciones a través de conexiones neuronales artificiales.

  • 1997 – Deep Blue de IBM derrota al campeón mundial de ajedrez Kasparov, siendo la primera vez que una computadora vence a un campeón mundial en un juego complejo.
  • 2002 – iRobot presenta Roomba, el primer robot aspirador doméstico producido en serie con un sistema de navegación impulsado por IA.
  • 2011 – Watson de IBM derrota a dos ex campeones de Jeopardy!.
  • 2012 – La startup de inteligencia artificial DeepMind desarrolla una red neuronal profunda que puede reconocer gatos en vídeos de YouTube.
  • 2014 – Facebook crea DeepFace, un sistema de reconocimiento facial que puede reconocer rostros con una precisión casi humana.

(!!) DeepMind fue adquirida por Google en 2014 por 500 millones de dólares.

  • 2015 – AlphaGo, desarrollado por DeepMind, derrota al campeón mundial Lee Sedol en el juego de Go.
  • 2017 – AlphaZero de Google derrota a los mejores motores de ajedrez y shogi del mundo en una serie de partidas.
  • 2020 – OpenAI lanza GPT-3, lo que marca un avance significativo en el procesamiento del lenguaje natural.

(!!) Procesamiento del lenguaje natural: enseña a las computadoras a comprender y utilizar el lenguaje humano mediante técnicas como el aprendizaje automático.

  • 2021 – AlphaFold2 de DeepMind resuelve el problema del plegamiento de proteínas, allanando el camino para nuevos descubrimientos de fármacos y avances médicos.
  • 2022 – Google despide al ingeniero Blake Lemoine por sus afirmaciones de que el modelo de lenguaje para aplicaciones de diálogo (LaMDA) de Google era sensible.
  • 2023 – Artistas presentaron una demanda colectiva contra Stability AI, DeviantArt y Mid-journey por usar Stable Diffusion para remezclar las obras protegidas por derechos de autor de millones de artistas.

Gráfico: Open Tech / Genuine Impact

Entradas relacionadas

#ajedrez #AlphaFold2 #AlphaGo #AlphaZero #aprendizajeAutomático #artículo #artistas #aspirador #BlakeLemoine #ConferenciaDeDartmouth #copyright #DeanEdmonds #DeepBlue #DeepFace #DeepMind #DeviantArt #ELIZA #Facebook #gatos #GenuineImpact #Go #Google #GPS #GPT3 #gráfico #Hinton #IA #IBM #infografía #inteligenciaArtificial #iRobot #Jeopardy_ #Kasparov #LaMDA #LeeSedol #MarvinMinsky #McCarthy #McCullock #MidJourney #modelos #Newell #OpenTech #OpenAI #patrones #Perceptron #Pitts #plegamientoDeProteínas #predicciones #procesamientoDelLenguajeNatural #reconocimientoFacial #redesNeuronales #remezclar #robot #Rochester #Roomba #Rosenblatt #Rumelhart #Shannon #shogi #Simon #sistemaDeNavegación #SNAR #StabilityAI #StableDiffusion #testDeTuring #Turing #vídeos #Watson #Weizenbaum #Williams #YouTube

dominix 🦇Dominix
2025-02-01

awesome explanation of base of like build on youtube.com/watch?v=l-9ALe3U-Fg

kcnickersonkcnickerson
2024-07-23

at 66 and past retirement age, neural-networks are still cool and futuristic ;>

at 66 and past retirement age, neural-networks are still  cool and futuristic ;> #ai #neuralnetworks #perceptron
2024-07-10

We started our #ISE2024 lecture on Basic Machine Learning today with "A (very) brief History of AI", which - in the end - took longer than expected ;-) ....stories and anecdotes time again

lecture slides: drive.google.com/file/d/1smo2q

@enorouzi @sourisnumerique @fizise @fiz_karlsruhe #AI #HistoryOfAI #perceptron #expertsystem #knowledgebase #symbolicAI #subsymbolicAI #neuralnetworks #connectivism #generativeAI #creativeAI #AIart #astronaut

Slide from the lecture Information Service Engineering 2024, Basic Machine LEarning 01, "A (very) brief History of AI". The slide is the cover slide for the section. It shows an astronaut in a heavy space suite (like the historical Apollo space suits) in a black & white drawing, who is sitting (probably frustrated) in a ring like structure, which looks like air hoses of a large artificially built structure. The picture has been created with Midjourney.
2024-01-09

Кто знает, что значит GPT в названии ChatGPT, могут дальше не читать!.

В настоящее время искусственный интеллект (ИИ) стремительно развивается. Мы являемся свидетелями интеллектуальной мощи таких нейросетей, как GPT-4 Turbo от OpenAI и Gemini Ultra от Google . В Интернете появляется огромное количество научных и популярных публикаций. Зачем же нужна еще одна статья про ИИ? Играя с ребенком в ChatGPT, я неожиданно осознал, что не понимаю значения аббревиатуры GPT. И, казалось бы, простая задача для айтишника, неожиданно превратилась в нетривиальное исследование архитектур современных нейросетей, которым я и хочу поделиться. Сгенерированная ИИ картинка, будет еще долго напоминать мою задумчивость при взгляде на многообразие и сложность современных нейросетей.

habr.com/ru/articles/785080/

#нейросети #нейронные_сети #cnn #rnn #трансформеры #gpt #chatgpt #gan #nlp #perceptron

2023-11-10

Ever wondered about the role of a perceptron in neural networks? Dive into its math foundation, limitations, and practical applications. 🧠💡 ak-codes.com/perceptron/

2023-06-20

Check out my new essay "Memorization and Memory Devices in Early Machine Learning" in Interfaces on memory in (historical) artificial neural networks: drive.google.com/file/d/1cQ5sj #ml #ai #perceptron

2023-05-15

@glaroc It absolutely is fun, and the thing is it makes a real effort to try and teach you about real nural networks and how they really operate. And I tried. I really did. I even watched part of the video they linked. But it is so far beyond my ability to comprehend... It made me a little sad. Yet I love the game, so there. Haha. #Perceptron

MedusaSkirtmedusaskirt
2023-05-03

So I've started learning about basic neural networks from this website, neuralnetworksanddeeplearning. , and in Chapter 1 of the site there's this little section that I found easily memeable... I am sorry in a way that I'm not actually sorry 😛

Albert CardonaRierol@mastodont.cat
2023-04-07

@remenca @spla En #Vapnik va escriure un llibre que déu n'hi do: "The nature of statistical learning theory" lib.ysu.am/disciplines_bk/22cc que introdueix de tot, incloguent-hi #SVM #ANN #perceptron i molt més.

2023-04-04

Having good Git commits is a really good way to be able to do controlled experiments on your software.

For example, I changed how my asteroids AIs are mutated and crossed over. How do I know that *both* of the changes are required for high achievement?

git revert, baby.

[ #git #programming #perceptron #machinelearning ]

A chart showing scores (max, mean, median, and min) and fit lines across 100 generations. This one is for the old crossover and mutation strategy. It achieves, at best, around 10 score at mean.Another chart showing scores (max, mean, median, and min) and fit lines across 100 generations. This one is for the old crossover and new mutation strategy. It achieves, at best, around 11 score at mean.Another chart showing scores (max, mean, median, and min) and fit lines across 100 generations. This one is for the new crossover and old mutation strategy. It achieves, at best, around 10 score at mean.Another chart showing scores (max, mean, median, and min) and fit lines across 100 generations. This one is for the new crossover and mutation strategies. It achieves, at best, around 16 score at mean - much better.
Flavio BernardottiFlavio58
2019-08-06
Flavio BernardottiFlavio58
2019-08-06
2018-06-27

#ConfusionMatrix
#PassiveAgressiveClassifier
#Perceptron

apparently, to be good at machine learning, one has to have compulsive anthropomorphism

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst