#MNIST

2025-05-13

Генетический алгоритм в помощь Adam — супер, но есть нюанс

Хабр привет! Это моя первая статья и я хотел бы начать ее с такого интересного эксперимента как "сбор гибрида для обучения нейронных сетей с помощью генетического алгоритма" и дополнительно рассказать про библиотеку Deap. Давайте определим из чего у нас будет состоять наш гибрид (как можно понять из названия) - это: 1) Обычный проход градиентного спуска ...

habr.com/ru/articles/909124/

#искусственный_интеллект #алгоритмы #генетические_алгоритмы #обучение_нейронных_сетей #нейронные_сети #нейронные_сети_и_машинное_обучение #машинное_обучение #mnist

2024-10-27

[Перевод] Нейронные сети (инференс MNIST) на «3-центовом» микроконтроллере

Вдохновившись на удивление высокой производительностью нейронных сетей и обучением с учётом квантования на микроконтроллере CH32V003 , я захотел выяснить, как далеко эту идею можно развить. Насколько можно сжать нейронную сеть с сохранением высокой точности тестов на датасете MNIST? Когда речь идёт о крайне дешёвых микроконтроллерах, сложно предположить что-то более подходящее, чем 8-битные Padauk . Эти устройства оптимизированы под простейшие и самые дешёвые приложения из доступных. Самая мелкая модель серии, PMS150C, оснащена однократно программируемой памятью в 1024 13-битных слова и 64 байтами RAM — на порядок меньше, чем в CH32V003. Кроме того, эта модель в противоположность намного более мощному набору инструкций RISC-V содержит коммерческий регистр-аккумулятор на основе 8-битной архитектуры. Возможно ли реализовать механизм инференса MNIST, способный классифицировать рукописные числа, также и на PMS150C?

habr.com/ru/companies/ruvds/ar

#ruvds_перевод #машинное_обучение #микроконтроллеры #PMS150C #mnist #CH32V003

2024-09-13

Mojo: убийца Python и будущее Ai?

Всем привет! Меня зовут Вадим, я Data Scientist в компании Raft, и сегодня мы погрузимся в Mojo. Я уже делал обзор данного языка программирования и рассмотрел его преимущества, примеры использования, а также провел сравнение с Python. Теперь давайте посмотрим, как обучить простую сверточную нейронную сеть, и разберём один из методов машинного обучения — линейную регрессию. В качестве примеров задач возьмем стандартные соревнования машинного обучения: предсказание стоимости жилья и классификацию рукописных цифр MNIST. Для проведения экспериментов на Python используем фреймворк машинного обучения PyTorch. А на Mojo — фреймворк машинного обучения Basalt.

habr.com/ru/companies/oleg-bun

#mojo #машинное+обучение #python #искусственный_интеллект #нейросети #программирование #mnist #pytorch #basalt #Housing_Prices_Dataset

2024-03-19

BitNet b1.58(BitLinear)を実装してMNISTで検証してみた(Tensorflow/Torch)
https://qiita.com/pocokhc/items/09128e92654783a5fa5b
#AI #BitNet #MNIST #learning

2023-09-27

@lowd I remember when most ML applications were variations on #MNIST. And #Imagenet, but I only had enough computer at the time to play around with Mnist. But yea, even then "Recommendation Engines" were starting to be the first things anyone mentioned because it was low hanging fruit - something of immediately obvious commercial value with terrific training data and an easy task for deployment.

Fabrizio Musacchiopixeltracker@sigmoid.social
2023-08-18

The #Wasserstein #metric (#EMD) can be used, to train #GenerativeAdversarialNetworks (#GANs) more effectively. This tutorial compares a default GAN with a #WassersteinGAN (#WGAN) trained on the #MNIST dataset.

🌎 fabriziomusacchio.com/blog/202

#MachineLearning

:rss: Qiita - 人気の記事qiita@rss-mstdn.studiofreesia.com
2023-08-10
2023-07-04

I experimented with using Large Language Models to solve a complex #imagerecognition problem.

The generated machine learning model by ChatGPT using a few prompts was able to detect #MNIST handwritten digits with an accuracy of 98%.

Read on if you want to learn how I did this.

#AI #artificialintelligence #deeplearning #neuralnetworks #bingai #bingchat #convolutionalneuralnetworks #LLMs #computervision

blog.gopenai.com/using-chatgpt

2023-04-15

@Sardonicus I d love to know how #ml algorithms trained on the #mnist dataset would perform with those images.

2023-03-21

It's hard to assess #Continual #Learning models and disentangle #hype from #progress, as the eval landscape is fragmented.

Even when learning from #MNIST to tiny #ImageNet (and back) #sota models tend to #catastrophic #forget a lot!

cc @ContinualAI

👉arxiv.org/abs/2303.11076

2023-02-18

Micrograd is very simple, only fully connected layers. So first trying to find out if it can even learn numbers based on MNIST dataset.

Then I hope to at least be able to verfit, so the essence works. Then I'll have the challenge of trying to make it work for every icon in the app.

Presumably I have to create/generate a huge set of icon images to train on..

#ux #micrograd #reactNative #MLP #MNIST #TinyUX #Karpathy #ai #NeuralNet

RecursiveNeuron :verified:RecursiveNeuron@techhub.social
2022-12-24
2022-11-15

Nothing like the #Kaggle #fashion #MNIST variant to make me feel like a real Elle Woods over here doing t-SNE on purses and saliency maps on ankle boots 😅

github.com/janeadams/fashion_m

#MachineLearning #WomeninSTEM #AI #ML #tsne #pca #WiDS #Python

The dataset I chose was Fashion MNIST from Kaggle, by Zaladano Research. It’s structured very similarly to MNIST, in that it has 60k images that are 28x28 pixels in grayscale and there are 10 different class labels. The labels are: 0: T-shirt/top, 1: Trouser, 2: Pullover, 3: Dress, 4: Coat, 5: Sandal, 6: Shirt, 7: Sneaker, 8: Bag, 9: Ankle boot. For the purposes of this assignment, I made the dataset smaller, choosing to only sample 5,000 images. Here are some examples: Examples of images in the dataset: purse, ankle boot, dressConfusion matrixLong-sleeved tops, generally, are most mis-classified together, followed by shoes. Interestingly, there are two distinct kinds of bag in the model’s eyes, though they are all classed the same in the target variable. However, there are errors in a good number of classes, as shown by comparing these two projections of layer 4 of the Multi-Layer Perceptron side-by-side: Two scatterplots showing an embedding of layer 4 of the neural net; the left is colored by class, and the right is colored by whether the prediction was correct or not.If I were to develop a model like this, and making that distinction was important to me, I might want to collect additional data, e.g. about the weight or fabric blend, to help separate those classes. Unfortunately this data is not included. Conversely, I might actually suggest a second or even third class of bag (clutch versus shoulder bag or purse) because it appears that the model has made a distinction in its understanding of this class. Zoomed in t-SNE projection showing highlighted clusters of bags (in an earlier t-SNE not screenshotted, these groups were actually in completely opposite locations from one another in embedding space)
2022-11-11

@ilennaj And you are the author of this most spectacular arXiv paper: "Can single neurons solve MNIST? the computational power of biological dendritic trees" Jones & Kording 2020 arxiv.org/abs/2009.01269 Hats off to you & @kordinglab ! And welcome.

#neuroscience #dendrites #MNIST

PS: subsequently published as "Might a Single Neuron Solve Interesting Machine Learning Problems Through Successive Computations on Its Dendritic Tree?" Jones & Kording 2021 direct.mit.edu/neco/article/33

Figure 1: Novel ANN neuron model with repeated inputs.
2021-09-02

#AI demystified: a decompiler

To prove that any "artificial neural network" is just a statistically programmed (virtual) machine whose model software is a derivative work of the source dataset used during its "training", we provide a small suite of tools to assemble and program such machines and a decompiler that reconstruct the source dataset from the cryptic matrices that constitute the software executed by them.

Finally we test the suite on the classic #MNIST dataset and compare the decompiled dataset with the original one.

#ArtificialIntelligence
#MachineLearning
#ArtificialNeuralNetworks
#microsoft
#GitHubCopilot
#Python
#StatisticalProgramming
#VectorMappingMachine

tesio.it/2021/09/01/a_decompil

The only 7 samples for the MNIST dataset (over 60.000 images of handwritten digits) that were slightly different after the decompilation of the "artificial neural network". They use slightly different shades of grey in some pixels, due to implementation details of the attached proof of concept (floating-point arithmetic rounding).

All other 59993 samples were decompiled perfectly.
heise online (inoffiziell)heiseonline@squeet.me
2021-04-12
Laut einer neuen MIT-Studie sind die zehn am häufigsten verwendeten KI-Datensätze mit vielen, teilweise eklatanten Etikettierungsfehlern behaftet.​ Falsche Trainingsdaten verzerren Güte-Einschätzung von KI-Modellen
2020-02-11

手書きの回路図をアップロード
AIが画像認識して、それぞれのICやパッシブ部品、アクティブ部品に自動変換
キレイな図ができる

そういうツールはもうあるかもしれない

#deeplearning #MNIST #Machinelearning

2018-03-19

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst