Amazon.de Widgets
ubuntu

Mit Ubuntu 14.10 ist die nächste Version des freundlichen Linux erschienen

Mit dem Titel spiele ich auf den Artikel in der Zeit an: Das (meist) freundliche Gesicht von Linux

Ubuntu brachte Humor und Benutzerfreundlichkeit in die Welt von Linux, brach aber auch ihre Tabus. Ein Rückblick auf die Geschichte der populärsten Linux-Version

Ja, es ist tatsächlich schon wieder 10 Jahre her, seit ich mich das erste mal über das “Linux für Menschen” freute. Seither ist es am Desktop für mich (fast) immer die Nummer eins. Nur als sie Unity einführten, habe ich als ehemaliger Fan von Gnome, kurze Zeit Fedora als erste Wahl benutzt. Jetzt teste ich Ubuntu auch einmal auf einem Server, obwohl es für mich eigentlich keinen Grund gibt, nicht weiterhin Debian (oder BSD) zu benutzen.
Da es am Desktop und Laptop seit vielen Jahren noch nie ein Problem beim Upgrade gab, bin ich jetzt sogar schon zu faul, vorher ein Backup vom “home” anzulegen. Es funktioniert sowieso immer und auch diesmal gab es kein Problem. Ein paar Klicks und das war’s.

 

(175)

heli-bot_gr

Kritik an der KI oder HeliBot-KI

In Bewustseinswahnsinn und künstliche Intelligenz habe ich es schon erwähnt, dass alle Systeme (neuronalen Netze) die ich kenne sehr seltsam ansetzen. Man kann damit dann einfache Muster erkennen oder dem System “lernen lassen”. Mein Hausverstand sagt mir, dass es mit diesen Systemen *praktisch unmöglich ist, irgend eine sinnvolle Bildverarbeitung zu programmieren.
*Mit praktisch unmöglich meine ich – Vergleich: Wenn ein Lehrer fordert, dass bei der Matheschularbeit nur das Ergebnis zählt und das Verfahren unerheblich wäre, dann könnte ich statt zu multiplizieren auch addieren. Sagen wir 98979 x 8450 ist zu berechnen. Nach dem gängigen Verfahren brauch ich dazu 4 Zeilen und zig Sekunden, aber mit Additionen brauche ich zig Hefte und in der Zeit für eine Schularbeit würde sich das auch kaum ausgehen. Damit ist es für mich “praktisch unmöglich”. Nur mit Gewichten in endlich vielen Neuronen in endlich vielen Schichten ist es meiner Meinung nach “praktisch unmöglich” ein Abbild von einem Bild auf die Netzhaut und dann auf die Sehrinde zu bringen und zwar alle paar Hundertstelsekunden ein exaktes Abbild. Das ist wohl die Voraussetzung, um irgend etwas erkennen und lernen zu können, denke ich. Das Konnektom (Schaltplan bzw. Verknüpfung der Neurone) ist zweifellos wichtig und die Gewichtung (Verbindungsstärke zwischen Neuronen) ebenfalls, aber bei allen Modellen die ich kenne, fehlt die eigentliche Information, die übertragen und verarbeitet werden soll. Man schafft sich in der KI einen Weg mit der Info übertragen werden soll, aber genau das tuen diese System dann nicht. Mathematik kann großartiges leisten, aber berechnen ist nicht denken. Unsere Neurone können keine Matrizenrechnungen und arbeiten nicht digital, obwohl eine gewisse “Digitalisierung” durch die Schwellwerte und das “Alles oder Nichts Gesetz” von Aktionspotentialen gegeben ist.
Zwischen Schwellwert und Maximalwert könnten die Neurone analog funktionieren und Information über Amplitude und Frequenz transportieren und verarbeiten, aber diese These wage ich nicht aufzustellen, denn das hätten die Neurophysiologen längst bemerkt. So etwas können sie unmöglich übersehen haben, weshalb ich es ausschließe, aber ich versuche ja auch kein künstliches, menschliches Gehirn zu programmieren. Es wäre bedenklich und größenwahnsinnig, wenn das ein einzelner Laie und Hobbyprogrammierer versuchte.
Alle hundertstel Sekunden ein neues Bild auf der Sehrinde, da muss bei meinem Modell die Info in der Amplitude liegen.
Imputschicht: 120 Mio Stäbchenneurone für Intensität und 6 Mio Zapfenneurone (bei HeliBot nur ein Typ) für die Farbe. Nur so kann mein Modell ein Bild auf die Sehrinde bekommen und das dieses zuerst einmal gesehen wird, ist Voraussetzung, um irgend etwas erkennen oder lernen zu können. Das ist natürlich nicht nur auf das Sehen beschränkt, sondern auf alle Sinne. Bevor ich nun wieder über die Anzahl der Teilnetze für meine HeliBot-KI nachdenke (es gibt zwar offiziell keine funktionelle Phrenologie, bzw. habe ich nichts davon gehört, aber ich verwende meine funktionelle Phrenologie trotzdem dazu, um die Anzahl der nötigen Teilnetze zu ermitteln), die natürlich objektorientiert programmiert sein müssen, werde ich einmal ein Programm erstellen, dass von einem Bild ein exaktes Abbild über ein neuronales Netz (primäres Sehnetz) erzeugen kann.

Bevor ich mich an die Arbeit mache, muss ich mir noch ein paar Kapitel aus Neuro- und Sinnesphysiologie von Robert F. Schmidt durchlesen, denn irgend etwas dürfte ich übersehen haben. Die Neurophysiologen hätten es bestimmt längst bemerkt, wenn die Info über die Amplitude moduliert werden würde. Aber irgendwie muss die Info doch übertragen werden und Konnektom und Gewichte reichen dazu sicher nicht aus. Außerdem können meine Sehneurone nicht matrizenrechnen, da bin ich mir ganz sicher.
Durch die Entwicklung, liegen die lichtempfindlichen Außensegmente mit dem Rhodopsin bei biologischen Augen recht ungünstig (nach außen gestülpte Hirnzellen), denn die Lichtstrahlen können ja schwer durch die Zellkörper gehen. Daher wird mein System der Einfachheit in der Umsetzung halber, schon verbessert. Das primäre Sehnetz von HeliBot muss sich ja nicht entwickeln, ich entwerfe es neu. Trotzdem verwende ich die Neurone der Sehrinde als Urklasse, von der alle anderen Sehneurone abgeleitet werden, da diese (zumindest in meinem Modell) am wenigsten Spezialisiert sind.
Ursehneuronklasse, Sehrindenneurone = Sehneuronklasse I (output und gleichzeitig imput für weitere Teilnetze)
Sehneuronklasse II sind Zäpchenneurone und Stäbchenneureone (imput)
Sehneuronklasse III (a, b, c) sind Amakrine-, Bipolare- und Horizontalzellen (hidden layer)

Ich habe mich zwar schon in vielen Programmiersprachen versucht, aber ich nütze die Gelegenheit eines neuen Projektes für eine neue Programmiersprache. Es fällt mir zwar nicht leicht, nicht Ruby zu verwenden, aber ich will auch Python kennen lernen. Wie immer, will ich alles über das Internet erreichen und steuern können, sogar meine Notizen, daher dieses Blog. Django läuft schon und den V-Server mit Linux muss ich noch ein wenig einrichten und obwohl bei mir sowieso immer alles opnen source wird und keine sensiblen Daten am Server sein werden, muss ich ihn auch ein wenig absichern, damit er nicht ganz leicht zur Verbreitung von Malware, Spam und für illegale Aktivitäten missbraucht werden kann.
An die Arbeit.
(332)

Django Tutorials

Eigentlich bin ich mit Ruby und Rails sehr zufrieden, aber trotzdem möchte ich auch Django und Python ein wenig kennen lernen. Dazu
findet man ja genügend Tutorials:

Writing your first Django app, part 1 ist natürlich ein guter Start und dann gibt es auf code.djangoproject.com Django Tutorials eine große Auswahl. Das dürfte für den Einstieg reichen und in nächster Zukunft werde ich statt den Seiten http://rubyonrails.org/ und https://www.ruby-lang.org/de/ häufig https://www.djangoproject.com/ und https://www.python.org/ aufsuchen.

Bis zu

It worked!
Congratulations on your first Django-powered page.

war es genau so einfach wie bei RoR und jetzt – schau ma mal. (347)

Nachhaltige Notizen zu Taijiquan, Linux, Informatik, Mathematik, Dadaichmuss, Umfragen, Satire, außergewöhnlichen Begebenheiten, Weltgeschehen, Lifestyle, …