Springe zum Inhalt →

Monat: Dezember 2017

Alexa. Drucke meine Zeichnungen aus.

Ich war sehr erfreut als gestern mein Weihnachtsgeschenk aufgemacht habe und ich ein Amazon Echo in den Händen hielt. Seit langem liebäugelte ich mit dem Gedanken, habe es jedoch nie gekauft. Ein Frage die mich immer beschäftigte war, was genau macht man denn mit so einem intelligenten Lautsprecher? Und durch Zufall stoße ich auf dieses Bild in Olegs Blog.

Wie böse Zungen schon behaupten, werden die Lautsprecher hauptsächlich und mit Abstand nur zum Musik spielen, Wettervorhersagen und als Timer verwendet. An sich ziemlich teure Geräte nur für diesen Zweck.

Ich finde jedoch, dass da mehr dahinter steckt. Wir sind halt noch nicht bereit mit einem Assistenten per Sprache zu kommunizieren wie z.B. die Crew der Enterprise. Und mal abgesehen, dass Alexa, Google Home, Cortana gerade noch in den Kinderschuhen stecken und die Intelligenz, die sie an den Tag legen, auch diesen Kindern entsprechen. Ist das ein erster Schritt in unsere Zukunft.

Ich hatte mal die Idee einen Chatbot mit unserem PLM System zu verbinden. Chatbots waren genau vor einem Jahr die Sau die durch das Internetdorf getrieben wurde. Chatten ist jedoch etwas, zu dem Menschen noch weniger einen Draht haben. Auch wenn heutzutage ohne Whatsapp, Facebook Messenger, Telegram und Threema die Koordinations-Kommunikation nur sehr schwer möglich ist.

Was ich jedoch deutlich sehen kann ist eine Verbindung ein Spracherkennungsdienst mit dem PLM System. Solche Szenarien wie „Alexa schicke mir bitte die Layoutzeichnung des Werk per Email“ oder besser „… zeige uns die Zeichnung auf dem Beamer„. Denkt man jetzt noch eine Stufe weiter und bringt den Algorithmen die PMI Informationen bei, dann würde in der Fertigung an der CNC Maschine dies hier gehen. „Alexa, wie waren nochmal die Toleranzen der 5mm Bohrung in B3?“ oder „Sage mir alle Änderungen des Änderungsindex D„. Es würde eine neue Welt aufgehen. Kein herumtelefonieren in der Hoffnung jemanden anzutreffen, kein Warten auf die Antwortemail, die auch nur beinhaltet „Ich weiß nicht was Sie meinen, lassen sie uns telefonieren sobald ich aus meinen Meetings draußen bin.„. Man fragt nach der Lösung und bekommt diese von der Maschine geliefert.

Für die Kaffeepause: Ihr sollte euch man Gedanken machen welche wiederkehrenden Fragen auftauchen und versuchen diese in ein „Rezept“ zu packen. Denn irgendwann kann man diese Rezepte sicherlich einer Maschine geben um sie abzuarbeiten.

 

[via]

Kommentare sind geschlossen.

Die Revolution der KIs

Gerade lese ich den Beitrag „Wie revolutionär ist KI tatsächlich“ auf boot.ai.

Vollgepackt mit Phrasen wir toll KI ist und es zum Grundstein der nächsten IT Plattformen wird. So wichtig wie Elektrizität.

Ganz unrecht hat der Autor nicht. KIs werden immer intelligenter nicht zuletzt durch die immer performantere Hardware. Erst neulich hat Nvidia die neue Titan V vorgestellt. Der Traum eines jeden Daten Analysten mich eingeschlossen.

Aber auch die immer größere Verbreitung bringt neue schlaue Köpfe ins Boot des Maschinellen Lernen. Dadurch kommen auch neue Ideen und bessere Algorithmen heraus. Und der Weg zu generellen Künstlichen Intelligenz wird immer mehr zur Autobahn.

Aber ist KI so benutzbar wie Strom? Oder sogar so benutzbar wir ein PC? In Zukunft sicherlich. Vielleicht sogar früher als gedacht. Im Augenblick jedoch noch nicht. Wir stecken noch in den Kinderschuhen. Der Hype gerade verleitet zu denken, ich werfe der Grafikkarte Big Data technisch alle Daten hin und schon spuckt mir der Rechner den besten Weg heraus wie ich in meiner Industrieanlagen Strom sparen kann. Oder ich weiß wann Bauteile ausfallen und schon die Bestellung auslösen kann noch bevor ein Schaden entsteht. Im Augenblick sind jedoch noch so viel Vorarbeiter zu machen. Die Algorithmen müssen trainiert werden. Und wehe die Datenbasis ist nicht sauber und durchdacht. Overfitting oder unerwünschte Ergebnisse sind an der Tagesordnung. Ich möchte ja nicht schon wieder an Tay, den Chatbots von Microsoft, erinnern.

Ich kann es selbst nicht erwarten, diese hilfreichen KIs zu erleben. Und ich bin mir auch sicher, dass das noch zu meinen Lebzeiten passieren wird. Es ist jedoch noch ein sehr spannender Weg dahin.

Was denkt Ihr darüber? Liege ich falsch? Gibt es schon eine Alexa, Siri oder Cortana die mir mein Leben erleichtert anstatt eine SMS fünf mal zu diktieren?

Kommentare sind geschlossen.

Jedi Tricks – Irfanview – Screenshots

Heute schreibe ich über mein Lieblingsbild Bildmanipulationsprogramm Irfanview. Das Tool ist eine Eierlegendewollmilchsau was Bildmanipulationen betrifft. Irfanview war eigentlich ein Viewer. Es wurde jedoch immer weiter erweitert, dass es jetzt viele kleine Tricks beherrscht. Es ist nicht mit Gimp oder Photoshop zu vergleichen, sondern mehr für alle andere Aufgaben. Batchverarbeitung zum Bilder vergrößern/verkleinern, umbenennen, Wasserzeichen einbauen, in andere Formate konvertieren usw. Farben/Farbkanäle bearbeiten, „Rote Augen“ entfernen, Beschneiden und verlustfrei drehen. Und natürlich das Tool um schnell Bilder in einem Verzeichnis durchzuscannen und anzuschauen.

Heute zeige ich euch eine Funktion, die nicht so bekannt ist. Screenshots mit Irfanview durchführen. Jetzt kann man natürlich sagen: „Was soll das Massimo? Mit dem Snipping Tool von Windows hat man doch alles.“ Ja, das Snipping Tool ist schon gut und in manchen Stellen sogar besser. Z.B. wenn man etwas mit einem „Marker“ hervorheben will. Aber Irfanview kann den Mauszeiger und aufgeklappte Menüs abfotografieren. So heißt auch die Funktion.

Diese startet man mit „c“.

Und schon sieht man, was Irfanview alles kann. Wenn man das gleiche machen wie mit dem Snipping Tool, dann wählt man 5 aus und drückt Return. Also „c“ „5“ „Return“. Und schon kann man den gewünschten Rahmen ziehen.

Option 1 und 2 braucht man wenn man die aufgeklappten Menüs fotografieren will. „c“ „2“ „Return“. Dann das Menü aufklappen, wie man es braucht. Und mit „Strg“+“F11“ bekommt man das Foto.

z.B sowas:

Das Tastaturkürzel kann natürlich links oben verändert werden. Man kann auch einen Timer ablaufen lassen und Irfanview macht dann automatisch das Foto.

Im unteren Rand des Fotografieren Fenster kann man einstellen, was nach dem Fotografieren passieren soll. Screenshot automatisch ausdrucken oder vielleicht automatisch speichern, wenn man eine Reihe an Screenshots erstellen will.

Doch wie habe ich den genau das Bild des Menüs mit dem Zeiger gemacht? Zuerst fotografiert man den „aktuellen Monitor“ Option 2. D.h. „c“ „2“ „Return“. Dann das Menü aufklappen und den Mauszeiger an die gewünschte Position und „Strg“+“F11“. Damit bekommt man jedoch den gesamten Bildschirm ins Irfanview Fenster.

In diesem Fester zieht man einfach einen Kasten mit der linken Maustaste

und klickt „Strg“+“y“. Das ist die Freistellen Funktion. Und schon hat man nur den Ausschnitt.

Und sollte man sich verschnitten haben. Mit Rückgängig („Strg“+“z“) hat man wieder das gesamte Bild.

Kommen wir jedoch zu einer etwas umständlicheren Funktion. Im Snipping Tool kann man einfach den gelben Marker anklicken und eine besondere Stelle „freihändig“ hervorheben. Das gibt es im Ifranview nicht. Man muss einen Kasten über den Bereich ziehen, denn man markieren will. Dieser ist natürlich komplett verschiebbar, einfach auf die Ränder klicken und „schieben“.

Shift“+“g“ und das „Farbe ändern“ Menu geht auf.

Wenn man jetzt den Regler für die Farbe Blau ganz nach rechts schiebt, entsteht der gelbe Marker Effekt, den man im Vorschaufenster oben rechts sieht.

Der Vorteil wiederum ist, man kann auch die anderen Regler verschieben und auch einen roten, grünen oder orangen Marker simulieren. Auch kann man z.B. Bereiche mit dem „Kontrast“ und „Gamma-Korrektur“ ausgrauen. Wenn Ihr aufgepaßt habt, dann sieht ihr den Effekt in einem vorhergehenden Screenshot. Jedoch leider immer nur rechteckig.

 

Und malen kann man auch. Mit „F12“ erscheint die Toolbox die rechts abgebildet ist.

Und mit diese kann wiederum alles machen, was ein Bildbearbeitungstool beherrscht. Pinsel, Füllen mit dem Farbeimer, Linen und Rechtecke zeichnen und sogar einen Clone Stempel hat man. Einfach mal mit den Funktionen rumspielen.

 

 

Das war’s. Wenn Ihr noch Fragen habt, einfach ein Kommentar hinterlassen oder per Twitter.

Möge die Macht mit euch sein.

 

Kommentare sind geschlossen.

Die Maschinen und die Kunst

Letzte Woche hat sich mein Post über die Urheberrechte gedreht. Dort erwähnte ich, dass ML Algorithmen auch Kunst erzeugen. Im Laufe der Woche bin ich auf die Podcast Folge Doug Eck – Expressive AI-Generated Music with Google’s Performance RNN des super Podcast TWiML & AI gestoßen. In dem Interview geht es genau um Machine Learning im Bereich der Kunst. Er erklärt unteranderem wie Maschinen Dinge wahrnehmen. Besonders im Vergleich zwischen Musik und Bilder.

Eines der beliebtesten App in der letzten Zeit war Prisma. Die App konnte den Stil eines Künstlers auf ein beliebiges Bild übertragen. D.h. das eigene Urlaubsfoto konnte damit in ein Kunstwerk von Picasso oder Rembrandt umgebaut werden. Bei Musik ist das nicht möglich. Ein Bild, und damit auch ein Film, sind statische Dinge. Eine Maschine hat Zeit, wie mit einer Lupe von links oben nach rechts unten das ganze Bild anschauen und manipulieren.

Bei Musik ist das anders. Es ist ein Fluss an Informationen das sich nur über die Zeit in ein Gesamtwerk entfaltet. Deswegen kann man nicht einfach einen Teil manipulieren ohne das Gesamte zu kennen oder zu beeinflussen. Sicherlich wird in naher Zukunft jemand die Lösung finden, jedoch im Augenblick ist das Feld noch unbesetzt.

Es ist immer wieder faszinierend, wenn man sich mit verschiedenen Bereichen des Maschinellen Lernen und Künstliche Intelligenz tiefer beschäftigt und diese versucht durch eine mathematische Brille zu sehen. So einfache „Hey Ihr könnt Bilder manipulieren, dann sollte das doch mit Musik auch einfach gehen“ sind dann doch komplett verschiedene Welten mit eigenen einzigartigen Herausforderungen.

Kommentare sind geschlossen.