data get moving
Mit ML können wir digitalen Objekten und Produkten beibringen, neue Bewegungen, Bilder, Klänge zu erkennen.
Im Workshop erhaltet ihr Arduinos mit Lagesensoren, mit denen ihr Bewegungsabfolgen, Gesten und mehr aufnehmen könnt.
Danach trainieren wir ein Modell und laden es wieder zurück auf das Arduino.
Gemeinsam entwickeln wir innerhalb von vier Tagen spielerische, interessante und spekulative Anwendungsfälle.
• Welche Bewegungen kann man aufnehmen?
• Welche Bewegungen könnten etwas steuern oder auslösen?
• Was könnte ausgelöst werden?
• Wie könnten Objekte aussehen, die diese Bewegungen erlernen können?
• Wie könnten Hilfsmittel für die optimale Eingabe der Steuerung aussehen?
Great to get started
Browser/Web:
• ml5js: https://ml5js.org/
• Teachable machine: https://teachablemachine.withgoogle.com/
• https://thecodingtrain.com/
Making:
• Arduino Blog: https://blog.arduino.cc/ (Filter Machine Learning/ Nano 33 BLE Sense)
• Google Coral: https://coral.ai/
• Simple Connectivity via websockets: Node-Red, Blynk.cc
Basics:
• https://www.fast.ai
• Aurelien Geron – Hands-On Machine Learning (2019)
• François Chollet – Deep Learning with Python and Keras
Get in touch with us:
• E-mail: office@same.vision
• Instagram: same.vision
Maybe not so great to get started:
• AWS, Google Cloud, Azure etc.
• AI Gurus on Youtube
• Super experimental features and papers > there are still enough low-hanging fruits to pick