PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Frage Frage zu Industrie 4.0 und IoT



6pac
09.11.2015, 15:11
Hallo Community,

Zur Zeit sind Themen wie Industrie 4.0 und IoT (Internet of Things) zumindest medial in aller Munde.
Mich würde interessieren, ob sich daraus neue Aufgaben für Entwickler gebildet haben ?
Habt Ihr schon Erfahrungen / Aufträge in dieser Richtung, oder ist alles wie bisher?

shedepe
09.11.2015, 20:09
Such mal im Forum nach Industrie 4.0. Da gab es bereits einen ähnlichen Thread dazu.
Industrie 4.0 ist in erster Linie ein Buzzword das viele Mikroentwicklungen versucht in einen großen Trend zu drängen.
Zusammenfassend kann man sagen: Alles wird vernetzter, die Automatisierung schreitet in vielen/ (allen ?) Bereichen vorran.

Aufgaben für den Entwickler haben sich dadurch natürlich andere ergeben. Ich würde das allerdings nicht unbedingt als Industrie 4.0 bezeichnen, bzw. eben als Teil dessen. (Industrie 4.0 ist eben etwas...allgemein gehalten)
Man kann sich aber recht einfach Vorstellen, dass nach mehr Schnittstellen, mehr Vernetzung und neuen Steuerungen auf Basis dieser Vernetzung gefragt wird.

Peter(TOO)
09.11.2015, 22:42
Hallo,

Primär ist das Marketing Geplapper!

Für die Entwickler ändert sich nur, dass jetzt das Marketing will, dass auch der Staubsauger und der Wasserkocher eine Schnittstelle haben.
Darf natürlich immer noch nichts kosten, aber Schnittstellen sind für die Entwickler nicht wirklich etwas neues.
Hinzu kommt, dass heute die Integrationsdichte so hoch ist, dass z.B. für Bluetooth schon alles im Chip ist, sogar die Antenne und der Protokoll-Handler. Der Entwicklungsaufwand ist da bei nicht höher als für eine Schnittstelle mit einem USART.

MfG Peter(TOO)

Mxt
10.11.2015, 08:11
Hallo,



Primär ist das Marketing Geplapper!

Ja, allerdings führt es im Moment dazu, dass einiges an Geld in solche Projekte fliesst.

Habe mir kürzlich die Themenliste zur ARM Entwicklerkonferenz nächste Woche angesehen. Firmen wie IBM oder Western Digital entdecken plötzlich ihre Liebe für Embedded ...



Darf natürlich immer noch nichts kosten, aber Schnittstellen sind für die Entwickler nicht wirklich etwas neues.

Im Mikrocontrollerbereich, also bei den kleinsten Dingen im IoT, kommen schon allerlei Neuigkeiten auf die Entwickler zu, z.B. Verschlüsselung.

Wenn man sich die aufkommende Doku für ARMs Einsteigersoftware anschaut, ist das schon einen Level höher, als das alte mbed 2.0, was ein bischen die Antwort auf Arduino war.
https://www.mbed.com/en/

White_Fox
11.11.2015, 11:13
Im Mikrocontrollerbereich, also bei den kleinsten Dingen im IoT, kommen schon allerlei Neuigkeiten auf die Entwickler zu, z.B. Verschlüsselung.

Wo ist das bitte neu? Neu sind allenfalls die Risiken und Angriffsmöglichkeiten die sich auftun, wenn man das Thema Verschlüsselung zu lax oder gar nicht behandelt. Siehe diverse Einbruchsmöglichkeiten in Autos, wo man z.B. die ach so sichere Türverriegelung dank ungesichertem CAN-Bus im Seitenspiegel ausgehebelt hat. Oder ungesicherte Bluetooth-Verbindungen z.B. zu Reifendrucksensoren, über die man Zugriff auf diverse Sicherheitsfunktionen des Autos bekommen konnte.

Für manche Menschen mag es etwas grundsätlich Neues sein, wenn man seine Kaffemaschine bereits über das Smartphone von unterwegs aus anwerfen kann, oder der Abteilungsleiter von unterwegs aus sehen kann wieviele Teile seine Produktionslinie bereits gefertigt hat.
Für einen Ingenieur ist es einfach nur Technik, die teilweise schon Jahrzehnte existiert.

Mxt
11.11.2015, 12:10
Wo ist das bitte neu?


Genau das meine ich doch, was Du da beschreibst. Im Automotive und im Industriebereich sind die meisten Entwickler absolute Analphabeten in diesem Bereich.

CAN-Bus ist genauso ein Beispiel, wie die SPS, die einfach ins Internet gehängt wird. Das sich da in vielen Bereichen nur etwas ändert, wenn etwas passiert, muss man leider als gegeben hinnehmen. Da geht es um Management, nicht um Ingenierskunst.


Auch wenn mich die Wortwahl beunruhigt, ist es schon mal schön zu sehen, wenn man bei ARM schreibt IoT brauche "banking class security". Das wird dann aber auch für die Bastler neu, wenn die Komponenten im intelligenten Heim dem Arduino nur Beachtung schenken, wenn der sich mit Zertifikat ausweist.

Peter(TOO)
13.11.2015, 02:34
Hallo,

Genau das meine ich doch, was Du da beschreibst. Im Automotive und im Industriebereich sind die meisten Entwickler absolute Analphabeten in diesem Bereich.

In diesen Bereich habe ich keinen Einblick mehr, ich weiss nicht ob es an den Entwicklern oder am Management liegt, welches kein Geld für die Sicherheit bereit stellt.


CAN-Bus ist genauso ein Beispiel, wie die SPS, die einfach ins Internet gehängt wird. Das sich da in vielen Bereichen nur etwas ändert, wenn etwas passiert, muss man leider als gegeben hinnehmen. Da geht es um Management, nicht um Ingenierskunst.
Manche Probleme sind leider schon fast so alt wie die Computer, wie z.B. dass die im Handbuch dokumentierten Accounts und Passwörter nach der Installation nicht geändert werden :-(
Ist heute noch bei vielen Modem/Routern im Netz immer noch so.
Auch habe ich nie verstanden wie man ganze Arztpraxen oder Rechtskanzleien mit WLAN ausstatten kann und darüber dann sensible Daten überträgt. Ein Kabel lässt sich natürlich auch anzapfen aber dazu braucht man einen physischen Zugang zum Kabel oder entsprechende Malware.

Der Trick mit Bluetooth und dem Reifendrucksensor ist natürlich ein Klassiker. Nach Aussen hin wird abgeschottet aber intern verwendet man ungesicherte Verbindungen.
Da war doch mal was mit der Kette und dem schwächsten Glied ??


Auch wenn mich die Wortwahl beunruhigt, ist es schon mal schön zu sehen, wenn man bei ARM schreibt IoT brauche "banking class security". Das wird dann aber auch für die Bastler neu, wenn die Komponenten im intelligenten Heim dem Arduino nur Beachtung schenken, wenn der sich mit Zertifikat ausweist.
Das einrichten des Zertifikates ist neu, der Rest beschränkt sich im Wesentlichen auf andere API-Aufrufe.
Wobei eine geschickt aufgebaute Bibliothek die transparent machen kann.

Allerdings gibt's dann in Zukunft ein nettes kleines Problem:
Was ist, wenn das Zertifikat abgelaufen ist?
Das Gerät wird dann unbrauchbar.
Nach Ablauf der Garantifrist, kennen viele Hersteller ihre Geräte gar nicht mehr, oder der Hersteller ist nicht mehr existent.

Gerade im Industriebereich sind viele Geräte über 10 Jahre im Einsatz und eine Stunde Produktionsausfall kostet locker mal 10'000 bis 100'000€.
Und was ist, wenn mitten im Überholvorgang auf der Autobahn das Fahrzeug streikt, weil das Zertifikat abgelaufen ist?

MfG Peter(TOO)

i_make_it
13.11.2015, 05:40
Die meisten Sicherheitsprobleme sind tatsächlich dem Management geschuldet.
Zum einen weil es heute gelernte Manager gibt.
(Es ist schön das jemand unter anderem Namen BWL studiert hat, dumm nur wenn er von dem was er da managed überhaupt keine Ahnung hat, weil die entsprechende Branchenkenntniss fehlt)
Zum anderen Projektmanager die PSPs (Projekt Struktur Plan) erstellen bei denen 80% der notwendigen PSP-Elemente für die praktische umsetzung fehlen, weil die Fachausbildung für den Bereich wo sie Projekte managen nicht vorhanden ist.
Und Ingenieure die im Studium mehr über Masnahmen für "planned obsolescense" gelernt haben als darüber, wie man alle möglichen Betriebszustände des Produkts ermittelt und ein Produkt sicher designed (Sei es nun Hardware oder software).

Ich habe letztens erst mitbekommen, das jetzt nachdem in Deutschland der vierte Fall eines Banküberfalls mir USB Bootstick erfolgt ist, getestet wurde ob den die eingesetzten Geldautomaten einer großen Bank ebenfalls betroffen sind. 6 Jahre nachdem das exploit auf einer Sicherheitskonferenz bekannt gemacht wurde, sind immer noch alle Hersteller anfällig.
Bei den PCs sorgen wir dafür das kein USB Stick geht und per Bitlocker und BIOS Settings auch kein Booten von USB geht, aber die Geldautomaten haben ungesicherte Service Zugänge die ein Leerräumen ermöglichen.
Das sind Management (fehl)Entscheidungen vom feinsten.

http://www.t-online.de/computer/sicherheit/id_75932272/bankraub-per-usb-stick-polizei-sucht-bankraeuber.html

Mxt
13.11.2015, 08:12
Ja und zum Management kommt dann noch die Unternehmenskultur. Wenn in manchen Autokonzernen einer vorbeikommt "der dem Vorstand berichtet", dann erlebt man Sachen, wie sonst im Film, wenn der Pharao kommt.

Manche erprobte Technik passt halt auch nicht so gut in eine vernetzte Welt. Am CAN-Bus kann man es schön verdeutlichen. Da gibt es Nachrichten mit einer ID und ein paar Datenbytes. Zum Beispiel kann eine ID "Licht an" bedeuten. Verschiedene Geräte (Lichtschalter, Lichtautomatik, usw.) können die senden, alles was leuchtet reagiert darauf und leuchtet dann halt. Wer da eigentlich "Licht an" gesagt hat, ist eigentlich egal und wird auch nicht überprüft.

Jetzt kann man natürlich das Lenkrad (wegen der Einparkhilfe) und das Bremspedal (wegen des Bremsassistenen) auch so steuern. Kann man machen. Wenn man jetzt noch, wie bei den kürzlich gehackten Jeep, das Multimedia System auch noch da dran hängt (über ein Gateway, leider mit Sicherheitslücken), dann wird es spannend. Insbesondere wenn es dann gelingt, aus dem Internet von außen auf das Multimedia Ding zuzugreifen.

Natürlich ist den Entwicklern vom CAN klar, dass man da heute besser z.B. Echtzeit-Ethernet nehmen sollte, und die relevanten Geräte dann über SSL reden, damit sie sicher sind, wer da "Notbremsung" gesagt hat. Aber was das kosten würde ....

oberallgeier
13.11.2015, 08:24
Die meisten Sicherheitsprobleme sind tatsächlich dem Management geschuldet .. die Fachausbildung für den Bereich .. nicht vorhanden ist ..Wie Recht Du hast. Ich habe zig Jahre in nem mittelgroßen Betrieb gearbeitet - von dort auch für einige der Giganten (Pharma, Chemie, z.B. BP etc). Die Wissenslücken sind oft erschreckend, insbesondere nach oben hin.

Dazu kommt das überzogene Selbstbewusstsein, alles/fast alles/vieles aus eigener Warte entscheiden zu können - weils ja keinen besseren Entscheider rundrum gibt (ihrer Meinung nach - es fehlt der Mut zur Delegation). Und leider kenne ich das bei allen Fachrichtungen und vorzugsweise bei akademischer Absolventen. Ich war immer wieder der Einzige der bei neuen Projekten sich in die Werkstatt setzte und sehr nützliche Anregungen bekam - die Andern haben da Wahnsinnsberührungsprobleme. Dafür war ich der Einzige (Büro)Typ der in der Werkstatt Stapler oder Portalkran fahren durfte, Drehbank und so benutzen etc. Sogar Hammer, Feile, Maßband und solches Zeug (und meinen Kopf) durfte ich bei brandneuen Maschinen "anwenden".

I40 wäre sicher mehr als das vielfach leere Schlagwort, wenn "das Management" erkennen würde, dass eine voll aus der Messwarte gefahrene Anlage etwas anders funktioniert als ein Tablet bei üblicher Benutzung. Weil dort im Rechner alle betrieblichen Einzelheiten abgebildet sein müssen, weil hier Entscheidungen von unterster bis oberster Ebene "berechnet" werden müssen - wenn nicht, so schnellstmöglich abgefangen. Wer von den vielen studierten Fuzzies kann diese betrieblichen Einzelheiten abbilden die er garnicht kennt? Vor Jahren stolpere ich über einen schwachsinnigen Punkt im SAP, setz mich mit nem SAPeigenen Spezialisten zusammen der vom Stuhl fällt - weil der Punkt ziemlich perfekt gelöst war; man hätte nur müssen ein Häkchen setzen - wenn man gewusst hätte, was die verbale Beschreibung im Vorgabeheft bedeutet. Es gibt so elend viel Punkte beim I40.

PS: Lee Iacocca (http://www.tagesspiegel.de/meinung/kommentare/schmeisst-die-penner-raus/851274.html): Zu viele Führungskräfte lassen sich in ihrer Entscheidungsfindung zu sehr bremsen, insbesondere diejenigen mit zuviel akademischer Bildung. (http://www.zitate.eu/de/zitat/200333/lee-iacocca)

Nachtrag:
Irgendwie finde ich es aber nicht sooo schlecht, dass unsere Fortschritte bei I40 noch etwas holpern. Denn es naht hinter diesem Komplex der Drache Nudging (http://www.spektrum.de/news/wie-algorithmen-und-big-data-unsere-zukunft-bestimmen/1375933). Was ist der schon gegen das geringe Vermögen Einzelner.

i_make_it
13.11.2015, 18:37
Die Problematik ist branchenunabhängig und fast auch größenunabhängig (aber je größer die Organisation/das Unternehmen um so schlimmer wird es).
Die letzte Lachnummer bei mir war: Die Reisestelle eines großen Kraftwerkbauers sollte umziehen (Kraftwerke bauen, gleich Projekte mit ziemlicher Strukturtiefe und vielen Sub,sub,sub Kontraktoren) man sollte meinen die haben Ahnung von Projekten.
Ich sollte nur sicherstellen das die Clients und Drucker wieder gehen werden.
Als ich eingeschaltet wurde, war die Projektplanung offiziell abgeschlossen.
Die Reisestelle war ausgelagert an den Kunden meines IT-Hauses.
Also drei Projektleiter: Kunde, Business Travel Dienstleister, IT-Systemhaus.
Meine erste Frage an die Büroleiterin vor Ort, war eigentlich auf den Übergabepunkt der WAN Leitung hin gezielt.
Bei dem Gebäudeplan den ich bekommen habe, stellte ich dann die Frage wie die viel Schreibtische und andere Möbel eigentlich in den Raum rein sollen.
Das Ergebniss war, das alle Richtlinien zu Bildschirmarbeitsplätzen, Platzvorgaben für Büroarbeitsplätze und Fluchtwegen, nicht eingehalten wurden.
Kunde hat dann in einem Tag umgeplant und einen anderen Raum vorgeschlagen.
Das hat sich dann zweieinhalb Wochen so weiterentwickelt. Ich frage was nach und erklärte wenn ich die Info hatte was nicht passt und wie man das Problem lösen bzw. umgehen kann.
Das ging so weiter bis schon die Umzugsfirma und alles bestellt war.
Dann habe ich nochmal eine Mail geschickt und zusammengefasst was alles abgeklärt ist und wo ich noch Bedarf sehe.
Am selben Tag (zwei Stunden nach meiner Mail) hat der Kunde das Projekt abgeblasen.
Da frage ich mich für was haben die 3 Projektleiter (zertifiziert) ihr Gehalt bekommen?

Zum Thema Selbstüberschätzung: Ich war Technischer Kundendienstleiter und wir bekamen einen neuen Vertriebsleiter.
10 Jahre Erfahrung als Vertriebler, im Notebook Geschaft.
Wir haben Server, Storrage und Netzwerke verkauft.
Ich habe nach dem Fachwissen in dem Sektor gefragt, Antwort war: "ich verkaufe aus dem Bauch heraus".
Ergebniss: 5 negativ Abschlüsse in 6 Wochen.
Die Geschäftsführung hatte er vorher von sich überzeugt (das änderte sich nach den Quartalszahlen).

Peter(TOO)
13.11.2015, 18:47
Hallo Geier,

Wie Recht Du hast. Ich habe zig Jahre in nem mittelgroßen Betrieb gearbeitet - von dort auch für einige der Giganten (Pharma, Chemie, z.B. BP etc). Die Wissenslücken sind oft erschreckend, insbesondere nach oben hin.
So vor 40 Jahren hat die Basler Chemie (damals Sandoz, CIBA, Geigy, Hoffmann LaRoche usw.) eine gemeinsame Abwasserreinigungsanlage (ARA) selbst geplant und gebaut.
Dann hat man sich gewundert, dass die Bio-Stufe nach verlängerten Wochenenden immer ausgefallen ist. Dauerte eine Weile, bis man herausgefunden hat, dass die Bakterien auch an solchen Tagen etwas zu fressen brauchen! Man hat dann zusätzliche Schmutzwassertanks gebaut, welche jetzt die Bakterien übers Wochenende füttern.
Schon komisch, dass bei der Planung in den beteiligten Konzernen kein Biologe aufzutreiben war .....
Bei kommunalen ARAs gibt es dieses Problem natürlich nicht.



Dazu kommt das überzogene Selbstbewusstsein, alles/fast alles/vieles aus eigener Warte entscheiden zu können - weils ja keinen besseren Entscheider rundrum gibt (ihrer Meinung nach - es fehlt der Mut zur Delegation).

Das Problem liegt beim Manager als solches, verglichen mit dem Patron von früher!
Der Manager ist eine Art Vermögensverwalter, ihn interessieren höchstens seine Boni und das Wohlwollen der Aktionäre, also kurzfristige Ziele. Geht das Experiment schief, zieht er, ohne Konsequenzen, halt weiter ...
Beim Patron ging es um das persönliche Vermögen des Inhabers. Er wusste auch, dass er ohne seine Arbeiter auf keinen grünen Zweig kommen kann und Erfolge und Misserfolge waren mit ihm persönlich verknüpft.

Komisch ist in diesem Zusammenhang auch das Management Buyout. Da geht es einer Firma immer schlechter und sobald die Verantwortlichen zu Eigentümern geworden sind, flutscht der laden ....


Und leider kenne ich das bei allen Fachrichtungen und vorzugsweise bei akademischer Absolventen. Ich war immer wieder der Einzige der bei neuen Projekten sich in die Werkstatt setzte und sehr nützliche Anregungen bekam - die Andern haben da Wahnsinnsberührungsprobleme. Dafür war ich der Einzige (Büro)Typ der in der Werkstatt Stapler oder Portalkran fahren durfte, Drehbank und so benutzen etc. Sogar Hammer, Feile, Maßband und solches Zeug (und meinen Kopf) durfte ich bei brandneuen Maschinen "anwenden".
So erging es mir auch. Ich bin bei jeden Projekt auch erst einmal in die Produktion gegangen und habe mit den Leuten geredet und so erfahren, was im täglichen Ablauf eigentlich gefragt ist. So ergab es sich z.B. das man an der Steuerung nur die Rezeptnummer eingeben muss, die steht auf dem Auftrag, um alle Parameter einzugeben. Bei den Besprechungen hiess es, das sei so nicht möglich, da jeder Auftrag anders ist. Für experimentelle Rezepte und spezielle Aufträge, kann man aber auch alles von Hand eingeben.Softwaremässig eigentlich ein kleiner Aufwand.

So nebenbei habe ich eine Menge an Fachwissen über Textilfärben, Extruder, Kunststoffe, Strassenmarkierungen und eine Menge mehr gelernt, was ich dann auch in anderen Projekten nutzen konnte.



Nachtrag:
Irgendwie finde ich es aber nicht sooo schlecht, dass unsere Fortschritte bei I40 noch etwas holpern. Denn es naht hinter diesem Komplex der Drache Nudging (http://www.spektrum.de/news/wie-algorithmen-und-big-data-unsere-zukunft-bestimmen/1375933). Was ist der schon gegen das geringe Vermögen Einzelner.
Ich sehe das Problem darin, dass die Evolution ohne eine Zielvorgabe gearbeitet hat. Dabei sind eine Menge verblüffende Lösungen entstanden. Auch die Forschung hat lange Zeit so gearbeitet und viele Erfindungen entstanden per Zufall. Heute arbeitet nur noch die Grundlagenforschung so.
Wenn die Gesellschaft durch Algorithmen gesteuert wird, besteht die Gefahr, dass unkonventionelle Entwicklungen schon im Ansatz verworfen, oder sogar unterdrückt, werden. Dies würde den Fortschritt behindern!

MfG Peter(TOO)

flor
19.11.2015, 13:17
Also ich finde es reicht nicht, wenn man nur von Industrie 4.0 spricht, man sollte sich auch mal darüber informieren, WER heutzutage Teil dieser Wertschöpfungskette ist. Ich durfte letztens ne Firma kennenlernen auf der LIGNA 2015. Ich glaube die kamen aus Niedersachsen oder Sachsen-Anhalt. Ich finde die verkörpern diesen Industrie 4.0 Gedanken im Kern. Eigentlich viele der Firmen auf der Messe dort. Aber deren Auftritt fand ich mit am besten. Die entwickeln ne Software um Fabriken und sowas zu planen. Das geilste war dann aber, dass die ne Oculus Rift Anbindung hatten. Konnte ich auch vor Ort testen. Die Grafik kann man natürlich nicht mit der bei PC-Games vergleichen, liegt aber halt auch an der Software selbst. Hier bedingen sich die Faktoren irgendwie gegenseitig.

oberallgeier
19.11.2015, 16:26
.. es reicht nicht, wenn man nur von Industrie 4.0 spricht, man sollte sich auch mal darüber informieren .. durfte letztens ne Firma kennenlernen auf der LIGNA 2015 .. Ich finde die verkörpern diesen Industrie 4.0 Gedanken im Kern ..Ne Messe ist oft eine Präsentation wie es gehen könnte - oder sollte - oder wird. Sonst wird ja nur gezeigt wie es war - damit gibt man ne schlechte Vorstellung des internen Weitblicks. Es werden also Ideen, Wünsche, erhoffte Fähigkeiten und Versprechen auf eine Präsentation, d.h. auf ein Modell, einen Messestand, abgebildet. Wo soll das einen Erkenntnisgewinn bringen? Ausser über die Aussagebreite und -tiefe von multimedialen Präsentationstechniken.

Für mich ist ein Problem bei I40, dass für ordentliche Ergebnisse Prozesse, Betriebsabläufe und oft ganze Betriebe auf dem Computer abgebildet werden (müssen), damit genügend Input für ordentliche Entscheidungen verfügbar ist. Es soll also die Realität auf ein Modell abgebildet werden. Diese Modellbildung/Abbildung hatte ich in meinem oberen Posting als ein wesentliches Problem genannt, wo Aufgaben liegen und wo Aktivitätsbedarf besteht.

Der TO hatte gefragt:
.. Industrie 4.0 und IoT .. in aller Munde .. Mich würde interessieren, ob sich daraus neue Aufgaben für Entwickler gebildet haben ..was mir eher danach klingt wo in dem komplexen Gedankengebäude >neue< Entwicklungsaufgaben gesehen werden. Das wurde in vielen Beiträgen dargestellt, auch wenn oft die Meinung durchscheint, dass es hier verdächtig nach des Kaisers neuen Kleidern riecht.

Nachtrag: Peter, ja, ich kenne ein bisschen den Kuddelmuddel in der Basler Chemie aus meinen damaligen Aktivitäten dort. Für mich einer der vielen Belege für mangelhaften Durchblick im Gesamtprojekt der vielleicht anfangs vorhanden ist aber dann weggekürzt wurde. Ähnlich wie bei dem nur wenige Jahre älteren Prunkprojekt „Assuanstaudamm“ – wobei das eher ein Beispiel dafür ist, wie lokale Politiker versuchen die Weltpolitik für ihre Winkelzüge über den Tisch zu ziehen. Dabei landet ja nu immer die nüchterne Sachlichkeit in der Ablage P.

i_make_it
20.11.2015, 07:09
Für mich ist ein Problem bei I40, dass für ordentliche Ergebnisse Prozesse, Betriebsabläufe und oft ganze Betriebe auf dem Computer abgebildet werden (müssen), damit genügend Input für ordentliche Entscheidungen verfügbar ist. Es soll also die Realität auf ein Modell abgebildet werden. Diese Modellbildung/Abbildung hatte ich in meinem oberen Posting als ein wesentliches Problem genannt, wo Aufgaben liegen und wo Aktivitätsbedarf besteht.


Da ich unter anderem ReFa Techniker bin (Die Jungs mit der hundertstel Minuten Stopuhr die unter anderem die Akordsätze festlegen), kann ich sagen das auch die Abbildung/Planung auf dem Computer nichts neues ist. Schon 1993 waren PPS (Produktions/Prozess Planungs Systeme) fester Bestandteil für Arbeitsplaner und Arbeitssystemgestalter. Ich stelle nur Fest, das zwar die Tools immer besser werden, aber das Know How derer die sie Bedienen im gleichen Maße nachlässt.
Mein PPS Lehrgang kam erst, nachdem ich gelernt hatte das alles von Hand zu machen und so ein Verständniss für die Materie zu entwickeln.
Heute komme ich in Projekte, bei denen Leute die selben Softwaretools wie ich benutzen, aber elementare Punkte bei der Planung vergessen werden.
Ergebniss sind Prozesse die keinen Bezug zur Realität haben und X real existierende Zustände nicht abgebildet sind. Daraus erfolgen dann Situationen in denen Niemand weis was als nächstes passieren muß damit der Sollzustand wieder hergestellt werden kann (Laut Prozess existiert dieser Zustand ja gar nicht und somit ist kein Verfahren vorhanden um daraus wieder raus zu kommen). Wenn ich dann einen Bericht schreiben muß, kann ich dann dem Prozess XY meist nur einen Prozessreifegrad von 0 (Unvollständig) attestieren.
Und das nachdem der Prozess schon an die Produktion übergeben wurde.

Mit I40 wurde wieder ein Marketing Schlagwort geschaffen, für eine Entwicklung die sowieso schon lange im Gange ist und um von der zunehmend sinkenden Qualität in allen Bereichen abzulenken.
1984 habe ich meine erste Schulung zu TQM (Total Quality Management) erhalten,
Das war lange vor ISO 9000 etc.
2010 habe ich an einer TQM Schulung in einem der Weltweit größten IT unternehmen teilgenommen. Der Schulungsleiter war am Ende etwas geknickt, das ich mich für die Antworten immer schon gemeldet habe, nachdem er grade angefangen hatte die Frage zu stellen. Und natürlich auch das ich alle Antworten auf dieses "brandneue" Thema wusste. Richtig schlecht ging es ihm nach der Nachbesprechung, als ich ihm sagte das ich die selbe Schulung 26 Jahre vorher schon in der Automobil Branche hatte.
Soviel zum Thema Inovationsindustrie. Für mich hinkt die IT, was Prozesse, Projektmanagement etc. angeht etwa ein viertel Jahrhundert hinter dem Stand des "State of the Art" hinterher. Dementsprechend erwarte ich nicht besonders viel von I40.
Da damit ja leider oft IT Unternehmen die Projektleitung bzw. Teile davon übernehmen.
Eventuell kann ich bald neuen Kunden, altes Wissen neu verkaufen.

Peter(TOO)
20.11.2015, 09:51
Hallo,

Mit I40 wurde wieder ein Marketing Schlagwort geschaffen, für eine Entwicklung die sowieso schon lange im Gange ist und um von der zunehmend sinkenden Qualität in allen Bereichen abzulenken.
1984 habe ich meine erste Schulung zu TQM (Total Quality Management) erhalten,
Das war lange vor ISO 9000 etc.
2010 habe ich an einer TQM Schulung [....]Richtig schlecht ging es ihm nach der Nachbesprechung, als ich ihm sagte das ich die selbe Schulung 26 Jahre vorher schon in der Automobil Branche hatte.
Soviel zum Thema Inovationsindustrie. Für mich hinkt die IT, was Prozesse, Projektmanagement etc. angeht etwa ein viertel Jahrhundert hinter dem Stand des "State of the Art" hinterher. Dementsprechend erwarte ich nicht besonders viel von I40.
Da damit ja leider oft IT Unternehmen die Projektleitung bzw. Teile davon übernehmen.
Eventuell kann ich bald neuen Kunden, altes Wissen neu verkaufen.
Es wird viel neuer Wein in alten Schläuchen verkauft.

Eigentlich ist das Ganze seit weit über 100 Jahre bekannt, neu ist nur die Umsetzung mit dem Computer.
https://de.wikipedia.org/wiki/Taylorismus

MfG Peter(TOO)

i_make_it
20.11.2015, 18:17
Ich denke Du meintes das umgekehrt.
"Alter Wein in neuen Schläuchen" Sprich altes Wissen mit neuem Logo.

oberallgeier
20.11.2015, 18:51
Ich denke Du meintes das umgekehrt ..Bestimmt. Mit dem Unterschied, dass alter Wein immer besser wird (werden kann) aber alte Sprüche halt nur alt aussehen. Auch wenns ne andere Zeichenfolge ist.

SPSAmeise
30.03.2016, 18:46
Hallo Community,

Zur Zeit sind Themen wie Industrie 4.0 und IoT (Internet of Things) zumindest medial in aller Munde.
Mich würde interessieren, ob sich daraus neue Aufgaben für Entwickler gebildet haben ?
Habt Ihr schon Erfahrungen / Aufträge in dieser Richtung, oder ist alles wie bisher?

Das kommt drauf an ob man einen Arbeitgeber hat, der den Wandel ernst nimmt oder wie der Laie auch nur denkt es sei Marketing um somit alles aufzuschieben.
Selbstverständlich ändert sich immer was für Entwickler, und natürlich muss man in Weiterbildung und neue Standards investieren, dass war noch nie anders wenn man Wettbewerbsfähig bleiben will.

SPS ist doch das beste Beispiel, Umfang und Aufgabenbereich sind ständig gewachsen, auch ohne die Hobby Nostalgiker, die auch heute noch sagen
würden, dass einzig wahre und schnellste sei IL. Würde es denen nach gehen, wären wir heute noch bei der reinen Steuerung und in keinster Weise voran gekommen.

Von den Sprachen und Hardwareanforderungen mal abgesehen, wurde SPS mit der Zeit um Fehlerbehandlung, Datenverarbeitung, Skalierung usw. ergänzt.
Da konnten sich Ingenieure und Programmierer auch nicht einfach hinstellen und sagen, mit dem IT Wandel oder Digitalisierung hätten sie alle nichts zutun.

Mit der altmodischen Denke, darf man sich allerdings auch nicht um Fachkräftemangel in Deutschland wundern, denn moderne Ingenieure und Mechatroniker mit IT Expertenwissen wachsen nicht von Bäumen.

Peter(TOO)
30.03.2016, 20:53
Hallo,

Das kommt drauf an ob man einen Arbeitgeber hat, der den Wandel ernst nimmt oder wie der Laie auch nur denkt es sei Marketing um somit alles aufzuschieben.
Selbstverständlich ändert sich immer was für Entwickler, und natürlich muss man in Weiterbildung und neue Standards investieren, dass war noch nie anders wenn man Wettbewerbsfähig bleiben will.
Aus meiner Sicht als Elektronikentwickler hat sich in den letzten 40 Jahren grundsätzlich an den Anforderungen nichts geändert!

Man(n) muss immer an Ball bleiben und sich mit den Weiterentwicklung der Technik befassen.
Das Argument: "das haben wir vor 10 Jahren schon versucht", zählt eben nicht, weil es heute Bauteile gibt, welche es damals noch nicht gab.
Ob da jetzt, für IoT noch eine Schnittstelle an den Staubsauger kommt, ist eben auch nichts wirklich Neues. Bei vielen Geräten gab es die schon inoffiziell, für die Fabrikation.
Ob man jetzt eine JTAG-Schnittstelle, Bluetooth oder USB 3 hat, sie besteht immer aus einer Schnittstelledefinition, den Pegeln, dem Timing und einem Datenprotokoll.

Hinzu kommt, dass heute die wichtigen Standard-Schnittstellen schon in der Hardware aktueller µCs vorhanden sind und vom Hersteller unterstützt werden. Man muss also das Rad nicht mehr immer wieder neu erfinden.

MfG Peter(TOO)

i_make_it
30.03.2016, 20:55
Von den Sprachen und Hardwareanforderungen mal abgesehen, wurde SPS mit der Zeit um Fehlerbehandlung, Datenverarbeitung, Skalierung usw. ergänzt.

Leider aber nicht um Sicherheitsfeatures.
Ab Übermorgen wird das ein Teil meiner Arbeit sein.
Steuerungen für I40 auf Security Schwachstellen checken.
Wenn die Maschine selbst, über das Firmennetzwerk und dessen Webanbindung in realtime hackbar wird, dann kann das ganz schnell nicht nur teuer sondern auch gefährlich werden.



Mit der altmodischen Denke, darf man sich allerdings auch nicht um Fachkräftemangel in Deutschland wundern, denn moderne Ingenieure und Mechatroniker mit IT Expertenwissen wachsen nicht von Bäumen.
Meine Erfahrungen sind leider daß bei den neu ausgebildeten "Fachkräften" das solide altmodische Wissen oft komplett fehlt.
Warum z.B. ein von Grund auf stabiles System entwickeln, wenn man das mit Software stabil regeln kann. Dumm nur bei einem Software Ausfall, wo die fehlende Eigenstabilität einen kritischen Systemzustand hervorruft bevor alles abgeschaltet ist.

SPSAmeise
30.03.2016, 21:40
Deshalb ist es umso wichtiger, dass man das interdisziplinäre Wissen und seine Kernkompetenzen in den entsprechenden Teams besser ausbaut.
Davon mal abgesehen halte ich persönlich den Berufserfahrenen Kollegen immer noch für den besten Mentor, nur sollte das eben ein gut ausgebildeter Spezialist auf seinem Gebiet sein.

Und das sich die Sicherheit mit SPS nie verbessert hat, stimmt so nicht, schon garnicht zwischen Mensch und Maschine.
Nur erfordert die angestrebte Vernetzung und die Digitalisierung eine andere Sicherheit, die ohne IT Experten kein Ingenieur oder SPS Programmierer alleine bewältigen kann.

Peter(TOO)
31.03.2016, 05:11
Hallo

Und das sich die Sicherheit mit SPS nie verbessert hat, stimmt so nicht, schon garnicht zwischen Mensch und Maschine.
Mensch - Maschine ist weniger ein technologisches Problem, sondern ein ergonomisches!

Leider wird hier, vermutlich aus Unwissenheit, vieles an der Realität vorbei programmiert. Eigentlich sollten die verantwortlichen Entwickler so 1 bis 2 Tage vor Ort verbringen und etwas mitarbeiten um zu sehen was für die Arbeitsabläufe wichtig ist.

Genau so, sollten auch alle Geräteentwickler, so mindestens eine Woche im Jahr, im Feld ihre eigenen Geräte installieren und warten müssen. Vieles fällt einem erst auf, wenn man in 6m Höhe auf einer Leiter steht und dann eigentlich drei Hände braucht um eine Messung durchzuführen! Im Labor ist das keine Kunst.

Ich hatte das Privileg, immer von der Erstellung des Pflichtenheftes bis zur Erstinstallation dabei zu sein. Und bei den hartnäckigen Fehlern, musst ich dann als Entwickler auch immer ins Feld. Man lernt nirgends mehr, für die nächsten Projekte als im Feld!
z.B. bei einem Projekt für ein Online-Messgerät für das QM, stellte ich am grünen Tisch die Frage, wie die Parameter verwaltet werden können. Hier war dann die Auskunft, dass alles für jede Charge individuell ist. Vor Ort dann, im Gespräch mit dem Maschinenführer zeigte sich, dass es für jeden Auftrag eine Rezeptnummer gibt, welche eigentlich auch die Messparameter enthält! Das waren aber nur so um die 30 Rezepte. Also gab es dann eine kleine Datenbank mit den Rezeptnummern als Eingabe unter welchen die ganzen Parameter abgelegt wurden. Neue Rezepte konnten auch direkt im Programm erstellt werden. Somit war dann auch gewährleistet, dass jede Schicht auch mit den selben Parametern misst.


Nur erfordert die angestrebte Vernetzung und die Digitalisierung eine andere Sicherheit, die ohne IT Experten kein Ingenieur oder SPS Programmierer alleine bewältigen kann.
Das Problem beginnt schon damit, dass die Steuerung überhaupt von ausserhalb des Hauses erreichbar ist. Argument ist meistens die Fernwartung, nur ist ein Zugriff von Aussen meistens höchst gefährlich! Ich will gar nicht wissen, was alles passieren kann, wenn ich bei laufender Maschine ein Firmware-Update mache!
Der andere Punkt ist, wenn jemand auch nur lesend auf Daten zugreifen kann, er jede Menge erfährt, was ihn nichts angeht.

So Mitte der 90er habe ich, für einen Kunden, eine Art Smartmeter entwickelt. Da konnte man z.B. genau sehen, wann morgens der erste kommt und das Licht in der Halle an macht, dann lief er zum nächsten Raum und machte auch dort das Licht an... In den Pausen machte der Kaffeeautomat im Bürotrakt die grösste Lastspitze, da konnte man sogar die rausgelassenen Getränke mitzählen. Da waren aber nur 3 oder 4 Stromzähler verbaut.
Ein anderes Projekt in diesem Rahmen, war ein Spital, da ging es nur um den Gesamt-Stromverbrauch für eine Neuprojektierung. Dir grössten Spitzenströme verursachten die Lifte, dann die OPs. Man konnte da gut erkennen, wenn Nachts ein Not-OP durchgeführt wurde.

Selbst wenn man Windows als Betriebssystem für eine Maschinen-Steuerung verwendet, muss dieses die automatischen Updates nicht machen können! Wenn sich die Maschinen in einem eigenen geschlossenen Netz-Segment befinden, gibt es keine Probleme mit Malware-Angriffen von Aussen. So lange es kein Update für die Steuersoftware gibt, muss auch das Betriebssystem nicht auf dem neuesten Stand sein, ausser es gibt ein konkretes Software-Problem.

An einem funktionierenden System, soll man bekanntlich nichts ändern.

Eigentlich gibt es keine technische Notwendigkeit, dass eine Steuerung weltweit über das Netzwerk erreichbar sein muss!

Ich hatte Kunden, welche PC-basierte (DOS) Steuerungen über 15 Jahre unverändert in Betrieb hatten. Der PC musste dabei aber ein paar mal ausgetauscht werden. Das Aus kam dann, weil wir ISA-Karten eingesetzt hatten und dann keine PCs mit ISA-Bus mehr erhältlich waren. Da musste der Kunde dann auf das neue System umsteigen.

MfG Peter(TOO)

SPSAmeise
31.03.2016, 11:05
Hallo

Mensch - Maschine ist weniger ein technologisches Problem, sondern ein ergonomisches!

Das würde ich so nicht unbedingt sagen, denn die Industrie hat ja leider auch bedingt durch Probleme und Unfälle dazu gelernt und daraufhin technisch nachgebessert.
Die Frage ist nur wie man in der Vergangenheit mit Produktionsfehlern und Unfallstatistiken allgemein umgegangen ist und ob die Ursachen hier immer transparent kommuniziert wurden.




Leider wird hier, vermutlich aus Unwissenheit, vieles an der Realität vorbei programmiert. Eigentlich sollten die verantwortlichen Entwickler so 1 bis 2 Tage vor Ort verbringen und etwas mitarbeiten um zu sehen was für die Arbeitsabläufe wichtig ist.

Die Praxis mag anders aussehen, und nicht immer so Gewissenhaft und zuverlässig sein wie Du es beschreibst, aber das gehört für mich bereits zur Aufgabe und den Pflichten von QM sowie des Top Managements,
um genau solche Abläufe sicher zu stellen. Der Entwickler selbst kann hier nur Feedback geben, aber die Servicequalität und Richtlinien sollten schon von anderer Stelle konsequent kontrolliert werden.

Das was Du hier beschrieben hast, ist also bereits ein wichtiger Standard für Qualität und Kundenservice und wer das nicht durchsetzt, arbeitet für mein Verständnis einfach nicht professionell und spart leider auch mal wieder an der falschen Stelle.



Das Problem beginnt schon damit, dass die Steuerung überhaupt von ausserhalb des Hauses erreichbar ist. Argument ist meistens die Fernwartung, nur ist ein Zugriff von Aussen meistens höchst gefährlich! Ich will gar nicht wissen, was alles passieren kann, wenn ich bei laufender Maschine ein Firmware-Update mache!

Das ist kein Problem, sondern eine Option von der Kunden kein Gebrauch machen müssen.
Die Sicherheit beginnt bereits beim Personal mit Verantwortung, und nicht erst bei der Netzwerktechnik.
Die Vorstellung das ein Servicetechniker mal eben Vollzugriff von extern bekommt, ohne Zwischenschicht und keinerlei Kompetenzen vor Ort, halte ich für sehr unrealistisch.

Nur weil man technische Möglichkeiten bietet, heisst das noch lange nicht, dass man keine Sicherheitsrelevanten Entscheidungen in der IT mehr treffen wird.


Der andere Punkt ist, wenn jemand auch nur lesend auf Daten zugreifen kann, er jede Menge erfährt, was ihn nichts angeht.

Klar, dass haben Produktivsysteme mit sensiblen Kundendaten so an sich, und ist für Support und Wartungsfälle immer schon ein Risiko gewesen, egal in welcher Branche.
Die meisten Probleme lassen sich aber bereits vorher lösen indem man in eine flexible Sandbox und Testlabs mit Kundennahen Simulationen investiert.
Das ist für die Reproduktion von Fehlern in der Industrie sogar einfacher als in der IT, weil man genau weiss mit welcher Hard und Software man es zutun hat und nicht erst lange raten muss

Für eine gute Testabdeckung und Testlabs muss man allerdings auch viel mehr Geld in die Hand nehmen, ob das immer der Fall ist wage ich stark zu bezweifeln, vorallem beim Mittelstand.



Eigentlich gibt es keine technische Notwendigkeit, dass eine Steuerung weltweit über das Netzwerk erreichbar sein muss!


Man sollte sich hier allerdings nicht in Szenarien reinsteigern, die so auch garnicht umgesetzt werden können.
Denn bei der Vernetzung geht es den meisten Unternehmen weniger um die direkte Steuerung , sondern viel mehr um bessere Analysemöglichkeiten auf Basis
von Sensordaten und mehr Details über Abläufe zu erfahren um effizienter und sicherer zu produzieren, Stichwort Data Science, Predictive Analytics , predictive maintenance etc..

Aus Sicherheitsgründen wird es in Zukunft nicht immer einen Live Zugriff geben, dass macht vielleicht Sinn wenn man an mehreren Standorten produziert, aber selbst dann wird
es immer isolierte Schichten geben, auf denen zum Beispiel ein Update wartet, dass vor Ort aber erstmal synchronisert und wahrscheinlich in einer isolierten Testumgebung überprüft werden würde.

Sicher kann man die Schichten hacken auf der Updates liegen, und dort einen Virus einspielen etc.., aber deshalb hat man noch lange kein Zugriff auf das Netzwerk der Produktion.
Das lässt sich mit einer Cloud vergleichen, mal angenommen der Zugang eines Kunden der amazon Cloud würde gehackt, dann hätte der jenige zwar Zugriff auf einen Bereich innerhalb der Cloud,
allerdings hat man dadurch noch lange kein Zugriff auf das Datacenter des Cloud providers.

i_make_it
31.03.2016, 12:32
Die Scenarien, die ich ab Morgen testen soll sehen leider anders aus.
Job Shop, Kunde läd im Webinterface Konstruktionsdaten hoch, gibt im Webinterface Produktions- und Technologiedaten ein und gibt den Auftrag auf.
Die Daten laufen direkt in CAD-CAM Kopplungssoftware und es wird z.B. G-Code für eine CNC erstellt und Beladeeinrichtungen (Roboter) mit Programmparamtern gefüttert.
Das Ziel Losgröße 1 und möglichst kostenneutrale Auftragsverarbeitung, Sprich wo es nur geht Automatisierung und Scripting.
Ein Angriff wäre nun ein SQL Injection am Webinterface um fehlerhafte Programme zu erzeugen die zu Schäden an Maschinen führen.
Andere Angriffe könnten DoS Angriffe im Firmennetz sein wenn es dort Sensoren gibt die direkt am LAN hängen (verhindern, verzögern der Kommunikation).

Ich Rede hier von mutwilliger Sabotage durch Hackerangriffe.
Wenn man mal einen Lasttrenner in einem Umspannwerk dazu bringt kurz nach dem Beginn des Öffnungsvorgangs stehen zu bleiben, z.B. weil die SPS zum Neustart gebracht wird, oder ein gefaktes ASI oder Feld Bus Telegramm der Steuerung das Erreichen der Endlage vorgaukelt, dann hat man einen Lichtbogen, der den Trenner zerstört und damit eine ganze Umspannstation lahmlegen kann.
Mach man das in einem kurzen Zeitfenster an einigen Staionen, bekommt man Dominoeffekte, die Auswirkungen quer durch den Kontinent haben.

Übrigens QM oder TQM spricht sich in der IT-Branche erst so langsam rum.
Habe ich selbst bei einem der größten IT-Häuser der Welt, 2010 erlebt.
Meine erste TQM Schulung habe ich in der Automobilbranche 1986 gehabt.
Meine letzte 2010 als ganz aktuelle Kampagne in der IT.
Also über ein viertel Jahrhundert um bekanntes Wissen und bekannte Verfahren unverändert von einer Branche in eine andere zu übernehmen. (Da ich noch meine Orginalunterlagen von 86 habe, konnte ich das dem Schulungsleiter zeigen. Der war übrigens erstaunt daß das schon so alt ist)
Und von wegen Top Management und QM.
Das sind Rahmenwerke die von dort kommen (wenn überhaupt) da steht von den für den konkreten Einzelfall notwendigen Parametern und Masnahmen gar nichts drin.
Wie auch, wie solle ein Volkswirt oder Betriebswirt der im Management sitzt wissen welche UVV, technische Norm oder sonstige Vorgabe 50 Hirachieebenen Weiter unten das Maß der Dinge sind.
Das bleibt dann doch Aufgabe des Entwicklers, Ingenieurs, Facharbeiters etc. der vor Ort ist und weis was er tut.
(wird auch meine Aufgabe werden, Prozesse, Handlungsanweisungen etc. zu verfassen)
Wobei ich selbst schon erlebt habe wie ein Maschinenbau Ingenieur mit einem Praxissemester komplett versagt hat und nach knapp 6 Wochen wieder vor die Tür gesetzt wurde.
Meine Erfahrung ist, das die Facharbeiter die nach ein paar Jahren Beruf ein Studium machen die besseren Ingenieure werden als die Abiturienten die direkt ins Studium gehen und dann mal 6 Monate eine Lehrwerkstatt von innen sehen und weitere 6 Monate hinter Fachahrbeitern herlaufen, denen sie sich überlegen fühlen und deshalb nicht drauf achten was sie da gezeigt bekommen.
Auch eigene Erfahrung, aus der Position des Facharbeiters der 4 Wochen lang einen Bereich zeigen und erklären sollte.
Es wurde nichts aufgeschrieben obwohl ich wiederholt darauf hingewiesen habe.
Und wenn ich mal gefragt habe wie derjenige denn jetzt vorgehen würde, wenn wir an eine ausgefallene Produktionsanlage kamen, kam nichts oder nur Unsinn rüber.
Und das obwohl ich erst gefragt habe wenn der Fall schon mal da war.

Das war übrigens 1990-92 gewesen. ist also kein neues Problem.
Wobei nach meiner Erfahrung, Bachalor und Master das Problem verstärkt zu haben scheinen.

Peter(TOO)
31.03.2016, 13:44
Hallo,

Ich Rede hier von mutwilliger Sabotage durch Hackerangriffe.
Wenn man mal einen Lasttrenner in einem Umspannwerk dazu bringt kurz nach dem Beginn des Öffnungsvorgangs stehen zu bleiben, z.B. weil die SPS zum Neustart gebracht wird, oder ein gefaktes ASI oder Feld Bus Telegramm der Steuerung das Erreichen der Endlage vorgaukelt, dann hat man einen Lichtbogen, der den Trenner zerstört und damit eine ganze Umspannstation lahmlegen kann.
Mach man das in einem kurzen Zeitfenster an einigen Staionen, bekommt man Dominoeffekte, die Auswirkungen quer durch den Kontinent haben.

So kompliziert muss man das gar nicht machen, es reicht an der richtigen Stelle "normal" zu unterbrechen, also per Hackerangriff einfach einen Lasttrenner zu öffnen.

2005 hat das hier die SBB mal "ausprobiert".
Wegen Bauarbeiten war nur eine Verbindungsleitung zwischen Norden und Süden in Betrieb und deren Kapazität wurde überschätzt.
Wissen muss man noch, dass die SBB-Kraftwerke sich hauptsächlich im Süden befinden und die meisten Bahnstrecken im Norden.
Durch eine Überlastung wurde diese letzte Verbindung abgeschaltet. Dann kam der Dominoeffekt mit Notabschaltung der Kraftwerke usw.
Zwischen der Störung und dem kompletten Ausfall vergingen 30 Minuten.
Am Ende fuhr in der ganzen Schweiz kein einziger Zug mehr!

Ein wichtiger Teil des Problems war auch das Mensch-Maschine Interface!
http://www.gotthardbahn.ch/downloads/stromausfall_medienkonferenz2.pdf (Seite 10)

MfG Peter(TOO)

i_make_it
31.03.2016, 14:45
Na ja, nach so einem Ausfall kann man aber meist wieder geregelt hochfahren.
Ein Angriff der auf einen großen Schaden zielt, wird aber nur dann richtig wirksam, wenn die Reparaturarbeiten langwirig werden und es zu Ersatzteilengpässen kommt, die ein Wiedereinschalten um Wochen oder gar Monate verzögert.

Ich habe selbst erlebt wie dank "effektiven" Controllings die Ersatzteilhaltung (also die Kapitalbindung) soweit reduziert wurde, das durch Lieferengpässe seitens des Herstellers, Personal bis zu 8 Wochen ohne Arbeitsgerät da stand. Da ging es nur um ein paar Dutzend Notebook User.
Aber selbst bei kritischer Infrastruktur wird immer mehr auf Kosteneinspaarung denn auf Redundanz und Sicherheit geachtet.
Ende der 80er Jahre gab es einen Vorfall aus dem bis heute nichts gelernt worden ist.
Damals brannte eine einzige Kunststoff Fabrik in Ndien ab und weltweit gin die Chipproduktion in die Knie.
Was war passiert? Durch Outsourcing und Produktionsverlagerung in Billiglohnländer hatte man die Weltproduktion für den Vergußkunststoff von ICs auf zwei Fabriken reduziert.
Als eine davon abbrannte mußten alle Chiphersteller für Monate die Produktion drosseln.
Bei der PEPCON Explosion war es das selbe, betraf aber nur die Einsatzfähigkeit des Spaceshuttle.
Da das eine der zwei Fabriken war die den Treibstoff für die Booster herstellte.

SPSAmeise
31.03.2016, 15:48
Die Scenarien, die ich ab Morgen testen soll sehen leider anders aus.
Job Shop, Kunde läd im Webinterface Konstruktionsdaten hoch, gibt im Webinterface Produktions- und Technologiedaten ein und gibt den Auftrag auf.
Die Daten laufen direkt in CAD-CAM Kopplungssoftware und es wird z.B. G-Code für eine CNC erstellt und Beladeeinrichtungen (Roboter) mit Programmparamtern gefüttert.
Das Ziel Losgröße 1 und möglichst kostenneutrale Auftragsverarbeitung, Sprich wo es nur geht Automatisierung und Scripting.
Ein Angriff wäre nun ein SQL Injection am Webinterface um fehlerhafte Programme zu erzeugen die zu Schäden an Maschinen führen.

Also SQL Injection, Crossite Scripting oder sämtliche Schwachpunkte wie auch Directory Traversal hängen leider immer mit schlampiger Planung und Entwicklung zusammen, denn es lässt sich von Anfang an vermeiden, indem man die Regeln beachtet. Hier reicht auch kein Codereview des Architekten sondern man sollte das auch von externen Sicherheitsexperten überprüfen lassen.
Ähnlich wie SaaS Provider die sich erstmal zertifizieren lassen sollten und teilweise müssen, bevor sie Kunden ihre Software auf einer Cloud anbieten.



Das bleibt dann doch Aufgabe des Entwicklers, Ingenieurs, Facharbeiters etc. der vor Ort ist und weis was er tut.

Also in dem Zusammenhang was Peter ansprach, die Abläufe bei Kunden zu optimieren, sind Entwickler garnicht befugt darüber zu entscheiden.
Es ging mir dabei auch nicht um Mitarbeiterkontrolle, sondern darum das die Qualitätsstandards nicht nur eingehalten werden, sondern auch kontinuierlich verbessert werden.

Deshalb fand ich das Beispiel von Peter eigentlich sehr gut, denn um solche Abläufe zu optimieren braucht es Feedback und Einschätzung der Kollegen vor Ort, aber eine entscheidene Veränderung von weiter oben.
Und dazu sollte auch immer mal wieder unabhängig kontrolliert werden, auch Verbesserungsvorschläge von Kollegen ernster genommen werden, bevor Kunden über Umwege damit konfrontiert werden und
gezwungener Weise erst eskalieren muss. Das mag jedes Unternehmen anders regeln, es wird aber höchste Zeit das man bei Qualität und Serviceanforderungen die gleiche Sprache spricht.




(wird auch meine Aufgabe werden, Prozesse, Handlungsanweisungen etc. zu verfassen)
Wobei ich selbst schon erlebt habe wie ein Maschinenbau Ingenieur mit einem Praxissemester komplett versagt hat und nach knapp 6 Wochen wieder vor die Tür gesetzt wurde.
Meine Erfahrung ist, das die Facharbeiter die nach ein paar Jahren Beruf ein Studium machen die besseren Ingenieure werden als die Abiturienten die direkt ins Studium gehen und dann mal 6 Monate eine Lehrwerkstatt von innen sehen und weitere 6 Monate hinter Fachahrbeitern herlaufen, denen sie sich überlegen fühlen und deshalb nicht drauf achten was sie da gezeigt bekommen.

Das kann ich aus der IT nur bestätigen, denn die praktische Berufserfahrung ist oft um einiges sinnvoller und effektiver als die Theorie und den damit verbundenen Qualifikationen auf Papier.
Hier kann man in bestimmten Bereichen auch dem Fachkräftemangel sinnvoll entgegen wirken, indem man z.B dem ein oder anderen motivierten Quereinsteiger über interne Spezialisierung und Fortbildung eine Chance bietet. Das ist deutlich Zielführender als auf gut ausgebildete Leute zu warten.

Peter(TOO)
31.03.2016, 17:05
Hallo,

Ende der 80er Jahre gab es einen Vorfall aus dem bis heute nichts gelernt worden ist.
Damals brannte eine einzige Kunststoff Fabrik in Ndien ab und weltweit gin die Chipproduktion in die Knie.
Was war passiert? Durch Outsourcing und Produktionsverlagerung in Billiglohnländer hatte man die Weltproduktion für den Vergußkunststoff von ICs auf zwei Fabriken reduziert.
Als eine davon abbrannte mußten alle Chiphersteller für Monate die Produktion drosseln.
Der war herbeigeredet!

Das war die Fabrik von Hitachi und die hatten noch Material für 1 bis 2 Jahre an Lager, also eigentlich kein Problem.
Ich hatte da gerade relativ neu, meine direkten Kontakt zur Europazentrale von Hitachi. Die machen ja nicht nur in Elektronik, sondern sind auch ein grosser Chemiekonzern, bauen Supertanker, Bügeleisen, Staubsauger und Reiskocher sowie AKWs und weiss ich noch was. Ich hatte mal Prospekte mit dem ganzen Programm..

Das Problem sind dann die Einkäufer der Amis.
Bei den Amis gibt es einerseits keinen Kündigungsschutz für Arbeitnehmer und andererseits ist das Vertragsrecht auch ganz anders.
Wenn morgens die Ware fehlt, hat Mittags ein anderer den Job als Einkäufer und der Alte steht auf der Strasse.
Deshalb bestellen die die volle Menge bei mehreren Lieferanten gleichzeitig. Wenn der erste liefert, bekommen die anderen eine Absage.
Bei einer solchen Zeitungsmeldung bestellen die dann bei 5 weiteren Lieferanten zusätzlich! :-(

Sowas lässt dann die Preise hochschnellen und verknappt scheinbar das Angebot. Nachher bricht dann alles zusammen.

Deshalb ist bei den Amis das "Book to Bill", also bestellte zu tatsächlich verkaufter Menge, so eine wichtige Zahl.
Zudem denken die auch nur Quartalsweise.

So eine Kriese haben wir aber alle paar Jahre mal.
- Mitte 70er explodierte der Goldpreis, da wurden dann die Preise für Stecker, IC-Sockel usw. in einen Grundpreis und den Goldanteil, welcher zum Tageskurs verrechnet wurde, aufgeteilt. Ist bis heute so geblieben.
+ Da war, Ende 70er der 74LS05 (ein 4-fach NAND mit OC), der kostete eigentlich mal 20 Rappen, wurde dann aber für 15-20 Franken pro Stück gehandelt. OK, hier war der Grund der APPLE ][, der hatte diesen verbaut und als dann die Taiwanesen mit den Nachbauten angefangen haben ....
- Das nächste waren dann Tantalelkos.

- was sonst noch alles war, weiss ich gar nicht mehr?

MfG Peter(TOO)

- - - Aktualisiert - - -

Hallo ABC-Meise,

Das würde ich so nicht unbedingt sagen, denn die Industrie hat ja leider auch bedingt durch Probleme und Unfälle dazu gelernt und daraufhin technisch nachgebessert.
Die Frage ist nur wie man in der Vergangenheit mit Produktionsfehlern und Unfallstatistiken allgemein umgegangen ist und ob die Ursachen hier immer transparent kommuniziert wurden.

Die Unfallverhütung meinte ich gar nicht, sondern "nur" die Bedienung.
Bei meinen Programmen war z.B. der Hintergrund, grossflächig Grau, wenn nicht gemessen wurde.
Wenn alles innerhalb der Grenzen lag Grün.
Bei Störungen und wenn was sonst aus dem Ruder lief Rot.
Die Farbflächen kann man dann auf 10-15m Distanz erkennen.
Bei Grün und Gelb interessieren die Werte eigentlich gar nicht.
Bei Rot muss man dann sowieso zum Steuerpult hechten um genau zu sehen was da genau los ist.

Ich habe da viel anderes gesehen, meistens waren einfach nur die Werte, welcher ausserhalb der Toleranz waren, in Rot, aber das konnte man nur auf ein paar Meter erkennen.


Also in dem Zusammenhang was Peter ansprach, die Abläufe bei Kunden zu optimieren, sind Entwickler garnicht befugt darüber zu entscheiden.
Das habe ich auch nicht gemacht!
Aber als Entwickler kann ich das Interface so gestallten, dass es IN den Ablauf passt!
Ich kann meine Abfragemaske so gestallten, dass sie die selbe Reihenfolge wie auf dem Auftrag hat oder so, dass man sich alles auf dem Auftrag zusammensuchen muss. Beim Programmieren macht dies nicht einmal mehr Arbeit.
Auch kann ich Eingaben verlangen, welche in dieser Form nicht vorhanden sind und man bei der Eingabe erst mal mit dem Taschenrechner umrechnen muss! Oder ich mache die Umrechnung in meiner Software. Wenn da ein Amit-Teil ist, welches mit PSI arbeitet, erzwinge ich nicht die Eingabe in Bar, sondern verwende halt auch PSI.

Jetzt rate mal, welches System mehr Eingabefehler verursacht ;-)

Grundsätzlich verwende ich ISO-Einheiten, wenn aber in einem Betrieb mit alten, oder Hauseigenen, Einheiten gearbeitet wird, übernehme ich diese.
OK, wird natürlich nicht fest codiert, sondern ist konfigurierbar.

Ich habe aber z.B. die Software für die Vorfeld-Busse auf dem Zürcher Flughafen kennen gelernt. Der Sprechfunk ist das am meisten benutze Kommunikationsmittel. Nun ist diese aber nur in der 2ten Ebene eines Menüs erreichbar. Also 3 mal klicken, bis man sprechen kann und dies für jede Durchsage an den Fahrer. Ich hätte diese Funktion z.B. auf die SPACE-Taste gelegt!
Aber Siemens hat jede Menge Zertifikate!

Auch so ein grauenhaftes Beispiel, aus den 70er Jahren: Bei einem Buchhaltungsprogramm musste man die Zahlen von recht nach links eingeben (Also die Cents zuerst), war wohl für den Programmierer so einfacher ....

MfG Peter(TOO)

SPSAmeise
01.04.2016, 13:02
Das habe ich auch nicht gemacht!
Aber als Entwickler kann ich das Interface so gestallten, dass es IN den Ablauf passt!

Das ist klar, aber Du sagtest auch das allgemein vieles an der Realität vorbei programmiert sei und das verantwortliche Entwickler 1 bis 2 Tage vor Ort verbringen sollten um zu sehen was für die Arbeitsabläufe wichtig ist.
Dies mag unsere Erwartungshaltung sein, ist aber eben kein Standard und kann je nach Kundenlösung nicht nur enorm hohen Aufwand bedeuten sondern auch zum ernsten Problem werden.

Und da wären wir doch beim Kernthema von Industrie 4.0.

Für Kundenanforderungen waren bisher immer individuelle Einzellösungen in einem geschlossenen System erforderlich,
was allerdings sehr teuer und technisch nicht immer ganz trivial ist.

Da die Industrie schon länger die mangelnde Interoperabilität in der Robotik beklagt, muss sie auch innovativ voran gehen indem sie bereit ist langfristig neue globale Kommunikations und Datenstandards zu definieren
und dazu gehört nunmal auch die "verteufelte" IT Vernetzung.

oberallgeier
01.04.2016, 13:49
.. Du sagtest .. das verantwortliche Entwickler 1 bis 2 Tage vor Ort verbringen sollten .. ist aber eben kein Standard .. enorm hohen Aufwand ..Also ich kenn das auch nicht als Standard. Standard sind eher ein bis zwei Wochen, teils mehr - soweit ich das von den mir bekannten Softwareentwicklern kenne. Ist aber bei Maschinen etc oft auch der Fall. Leider eben (schon wieder standardmässig) NACH SAT statt vor Pflichten-/Lastenheft. Murphy lässt grüßen.

SPSAmeise
01.04.2016, 15:13
Das hängt in der Tat stark von der Lösung ab, denn wenn der Entwickler 2 Wochen braucht nur um sich mit den Abläufen vertraut zu machen, zweifelt ein Kunde wohl eher an der Planung des Dienstleisters
und weniger an der Servicequalität. Teuer und aufwendig bleibt beides , daher sind individuelle Einzellösungen in geschlossenen Systemen auch nicht mehr ganz Zeitgemäß.

White_Fox
01.04.2016, 16:27
Wenn ich nochmal an die Eingangsfrage des TEs erinnern darf:
Es ging darum, was es für Entwickler Neues gibt. Neue Technologien, neue Entwicklungsmöglichkeiten, usw....

Ich bleib noch dabei, aus technischer Sicht wird sich für Entwickler und Ingenieure rein gar nichts bis wenig ändern. Es wird vielleicht ein paar neue Schnittstellen geben. (Auf der Embedded World in Nürnberg vor ein paar Wochen habe ich das LoRa-WAN bewundern dürfen. Funkübertragung für relativ geringe Datenmengen über beachtliche Entfernungen. Letztenendes Module, die über eine schnöde UART-Schnittstelle angesprochen werden.) Aber damit bleibt alles beim alten: Die Firmen, die neue Geräte/Technologien entwickeln, haben das schon seit Jahrzehnten gemacht und tun das weiter hin.

Wo sich eher vielmehr etwas ändern muß, ist die Organisation vieler Firmen, sowie die Zusammenarbeit zwischen den technischen, wirtschaftlichen und organisatorischen Abteilungen. Soweit ich das beurteilen kann liegt da die größte Quelle für Probleme aller Art.
Aufträge werden oft ausgeschrieben, d.h. in der Regel der, der am wenigsten Geld sehen will, kriegt den Job. Nun findet sich immer irgendeine Klitsche, die den größten Teil ungelernte Ahnungslose unterhält und vllt einen "Feignblatt-Meister oder -Ing" beschäftigt, der aber auch nur dort ist weil für irgendwelchen rechtlichen Kram jemand mit Titel gebraucht wird. Solche Buden gibts fast immer.

Momentan bin ich noch für eine Firma tätig (zwar nicht Industrie, aber die gleichen Mechanismen gibts überall) die am Markt einen riesig großen Namen hat, wo aber fast die gesamte Arbeit von Subunternehmen gemacht wird. Die Baustellenleiter sind während der gesamten Bauzeit nicht ein einziges Mal auf der Baustelle gewesen (wie auch, wenn einer Baustellen für drei alleine leiten soll), und kleinere Handwerkerbertriebe sind erstaunt wenn die Leiharbeiter in den Arbeitsklamotten mit dem Logo der superdollen Riesenfirma aus Dortmund zu ihnen kommen um sich grundlegene Werkzeuge auszuleihen.
Die Firma wickelt ihre Projektkalkulation mit einem Werkzeug ab, das definitiv noch aus der Mitte der 90er Jahre stammt, das letzte Update aber von 2016 ist. Über die Mängel dieser Software könnte ich Bücher schreiben, ich sollte in einem fast fertig kalkulierten Angebot die Verkaufssätze ändern. Ein Vorgang, der nur für jede Einzelposition individuell möglich ist. Für so etwas habe ich 20min "Klavier gespielt", diesen Vorgang könnte man aber auch in <10s erledigen wenn die Softwarebude gewußt hätte was sie tat. Der Einsatz solcher Programme wird für mich künftig ein Kriterium bei der Arbeitgeberwahl sein.
Diese Firma hat auch allerhand Zertifikate, für deren Ausstellung irgendein Mitarbeiter vor Jahren mal allerhand Formulare und Vorlagen in Excel erstellt hat. Diese Tabellen gammeln in den Tiefen des Servers rum und kein Mensch weiß davon oder nutzt die Dinger gar. Davon abgesehen nutzt die Firma allerhand Excel-Tabellen, wo das Firmenlogo aus vier Textblöcken mit verschiedenen Schriftarten irgendwie zusammengebastelt wurde. Dort, wo Zeichenketten eingetragen werden sollten, ist ein Riesenhaufen Spalten auf ca. Zeichenbreite zusammengeschrumpft worden. Vollkommen nutzlos, aber die Exceltabelle sieht an dieser Stelle immerhin wie ein Überweisungsschein aus. Dafür keinerlei Formeln, wo der Computer dem Menschen ein wenig Rechenarbeit abnehmen könnte. Die Firma rühmt sich übrigens der ständigen Fort- und Weiterbildung ihrer Mitarbeiter.
Ich habe für diese Firma eine Exceltabelle mit etwas Intelligenz vollgestopft, mir vom Standort-Manager dafür immer Sprüche angehört wie "Programmieren Sie denn noch oder verdienen Sie schon Geld?", bis dann ein Projekt massiv in Schieflage geraten ist. Der Standort-Manager war nur verwundert, daß sein Bauleiter immer aktuellere Zahlen hatte als er (dank meines Excelscripts), zumindest habe ich mir für speziell dieses Script keine dummen Sprüche anhören müssen. Beim nächsten Projekt ging es allerdings wieder los...
Über die Lohnzettel, die wirklich noch von jedem Mitarbeiter handschriftlich ausgefüllt (kostet jeden Mitarbeiter regelmäßig einen kompletten Arbeitstag im Monat-mindestens) und dann aus allen Standorten in Deutschland nach Dortmund gekarrt werden, habe ich mich bestimmt schonmal ausgelassen. Dafür wird jeder Mitarbeiter auf Vollgas gefahren, die "12h/d-Arbeitszeitausnahme" ist da eher die Regel. Die Mitarbeiterfluktuation entsprechend hoch.

Die Firma ist zwar eine Elektrofirma und im Bauwesen und nicht in der Industrie tätig, aber das sollte keine Rolle spielen, denn das sind alles Probleme, deren Ursachen völlig branchenunabhängig sind. Und solange es noch Firmen gibt die sich eine solche Arbeitsweise leisten können, wie auch immer die das schaffen, wird dieses "Industrie 4.0-Gedöns" mir als angehenden Ingenieur eher Alpträume bereiten. Denn sowas:
http://www.n-tv.de/auto/Hacker-uebernehmen-Auto-bei-voller-Fahrt-article15575591.html
https://de.wikipedia.org/wiki/Michael_Hastings_%28Journalist%29
brauchen wir nicht noch mehr. Für den Ein oder Anderen, insb. Menschen mit wenig technischer Bildung wie Leute im Marketing- oder Wirtschaftsbereich, mag es ein Unterschied sein ob ich ein Auto oder eine Industrieanlage hacke. Als Technischer ist mir das völlig wurscht, lediglich die Möglichkeiten sind anders.

SPSAmeise
01.04.2016, 17:20
Für den Ein oder Anderen, insb. Menschen mit wenig technischer Bildung wie Leute im Marketing- oder Wirtschaftsbereich, mag es ein Unterschied sein ob ich ein Auto oder eine Industrieanlage hacke. Als Technischer ist mir das völlig wurscht, lediglich die Möglichkeiten sind anders.

Dann ist es umso erstaunlicher, dass Du wirklich glaubst es würde sich durch Industrie 4.0 nichts für Entwickler ändern ...

Mxt
01.04.2016, 17:39
Man kann es ja so formulieren: Für die Entwickler ist es normal, dass sich die Dinge ändern. Insoweit ändert sich nichts. ;)

Für vernetzte Anwendungen wird das natürlich schon zur Herausforderung. Die langen Laufzeiten industrieller Anwendungen führen dazu, dass man die verwendeten Technologien mit Sorgfalt wählen muss. Wir haben Kunden, die unsere Industrie-PC Anwendungen über 10 bis 15 Jahre ohne Update betreiben. Nicht weil wir keine kompatiblen Updates anbieten würden, sondern weil sie das grundsätzlich nicht tun.

Mit dem Wissen Anwendungen eventuell so lange betreuen zu müssen, wird man aus Erfahrung natürlich recht konservativ in der Technologieauswahl. Aber wer weiß schon, ob Dinge die gerade hipp sind, z.B. Node.js, in zwölf Jahren auch noch so verbreitet sind.

Peter(TOO)
01.04.2016, 18:06
Hallo,

Also ich kenn das auch nicht als Standard. Standard sind eher ein bis zwei Wochen, teils mehr - soweit ich das von den mir bekannten Softwareentwicklern kenne. Ist aber bei Maschinen etc oft auch der Fall. Leider eben (schon wieder standardmässig) NACH SAT statt vor Pflichten-/Lastenheft. Murphy lässt grüßen.

Ist halt immer auch eine Frage, ein wie helles Kerlchen der Entwickler ist und was er über die Branche und deren Abläufe weiss! Dazu gehört aber auch die jeweilige Fachsprache. Wenn ich mit einem Textilfärber über Farbmetrik rede ist das eine andere Sprache als mit einem Offset-Drucker.

Als die SBB auf Computern bei den Ticketschaltern umgestellt hat, haben sie erst einmal 1 oder 2 Schalter in Bern mit Prototypen ausgerüstet, dann haben einige normale SBB-Ticketverkäufer an diesen Schaltern gearbeitet und ihren Senf dazu abgegeben. Anschliessend wurde das ganze System nochmals überarbeitet.
Den unterschied merkt man, wenn man ein Ticket bei der DB und der SBB am Schalter holt. Am DB-Schalter dauert es ewig ...

Ein Problem ist, dass Pflichten-/Lastenheft fast immer von Leuten erstellt werden, welche mit dem Ergebnis nicht selbst arbeiten müssen!
Hinzu kommt noch, dass sie, oft ohne das nötige Fachwissen, mitdenken. Da werden dann Wünsche ausgeschlossen, weil man denkt es sei zu teuer oder man mal von Problemen gehört hat, oft weil das dann später nachgerüstet werden musste.

Ich habe meine Kunden immer angewiesen das Pflichten-/Lastenheft zuerst dreiteilig zu erstellen:
1. Alles was das Produkt können muss.
2. Dinge die hübsch wären, wenn man sie hat.
3. Hyper-Super-Duper Features.

Im nächsten Schritt hat man dann über die Machbarkeit und Kosten der einzelnen Ideen gesprochen und ein definitives Pflichten-/Lastenheft erstellt.
Oft sind da Dinge von 3. in 1. gerutscht, besonders früher, als noch viel Hardware war. Irgendeine zusätzlich LED macht bei der Entwicklung keine zusätzlichen Kosten, ausser den paar Cent für LED und Widerstand. Wenn man aber das Layout des Prototypen neu entflechten muss, ist es ein Kostenpunkt.
Hinzu kam, dass man auch nur die Löcher für einen zusätzlichen Stecker vorgesehen hat, um später Features nachrüsten zu können, auf Grund der Kategorie 3. konnte man abschätzen wohin die Weiterentwicklungen gehen wird.

Grundsätzlich gilt dies auch für Softwarelösungen. Da kann man einen µC wählen, zu welchem es einen pinkompatiblen grossen Bruder gibt. Oft liegt der Unterschied nur in einem Pull Down oder Up Widerstand, was keine zusätzlichen Kosten erzeugt.
Dies gilt aber auch, wenn man die Hardware fertig zukauft. Bei der Evaluation stolpert man meist über viele, fast identische Produkte. Wenn es mit kleinem Aufwand möglich war, habe ich immer versucht, dass man auch andere Module, ohne Aufwand, verbauen kann. Das hat uns öfters "das Leben gerettet", wenn ein Hersteller nicht liefern konnte oder sein Produkt eingestellt hat. Oder aber, wenn neue Anforderungen an ein bestehendes Gerät gestellt wurden.

Ähnliches gilt auch für die Software. Wenn spätere Erweiterungen schon bekannt sind, kann man die Software von Anfang an, entsprechend modularisieren und/oder Software-Schnittstellen vorsehen. Ähnliches gilt z.B. auch für Timer, heutige µCs besitzen meistens jede Menge davon. Einen einfachen periodischen Interrupt kann ich mit jedem von diesen Erzeugen. Aber einzelne Timer können noch spezielle Aufgaben erfüllen, wie z.B. PWM oder Quadraturdekoder. Für eine einfache spätere Erweiterung, belegt man diese speziellen Timer möglichst nicht. Ähnliches gilt auch für die I/O-Pins.

Aber das ist meine Denkweise und die meisten Entwickler denken leider anders.
Ich habe einige meiner Brötchen damit verdient, indem ich Projekte "geerbt" habe. Entweder weil die Entwickler nicht weiter kamen oder weil das Produkt erweitert werden sollte.

MfG Peter(TOO)

SPSAmeise
01.04.2016, 18:10
Und ob das eine Herausforderung wird, auch die Frage der Zuständigkeit lässt sich heute noch garnicht so leicht klären.

Denn nach Inbetriebnahme einer komplett digitalisierten Anlage wird auch nicht unbedingt immer
ein IT oder Sicherheitsexperte zum Händchen halten vor Ort sein.

Und wehe die Module für die Du nicht unbedingt verantwortlich bist machen dann mal Probleme, sei es vor Ort
oder per Fernwartung, dann fängt der Spass und Fehlersuche ohne die Anlage samt IT Integration zu kennen erst richtig an.

Die Kunden IT wird in Zukunft aber so oder so eine deutlich wichtigere Rolle einnehmen müssen als heute,
und der Aussendienst wird neben dem Ingenieur auch IT Experten im Team haben, ganz ohne geht es nicht wirklich.

Peter(TOO)
01.04.2016, 19:59
Hallo,

Dann ist es umso erstaunlicher, dass Du wirklich glaubst es würde sich durch Industrie 4.0 nichts für Entwickler ändern ...

Es ändert sich, wie schon geschrieben, nichts grundsätzlich für einen Entwickler.

Wo sich etwas ändern muss, ist in den Ebenen über dem Entwickler!

Bei MS, in der Zeit als es von MS noch gar keine Updates gab, war es so, dass Billy der Überzeugung war, dass nur ganz junge Entwickler neue Ideen haben. Also wurden die meisten direkt ab UNI, oder sogar vor dem Abschluss, bei MS eingestellt.
Weiterhin hat Billy das Datum für die Veröffentlichung z.B. einer neuen Windows-Version festgelegt und dieser Termin musste eingehalten werden. Dabei war es egal ob der Entwickler noch eine Bugliste mit 100ten bekannten Bugs hatte oder nicht. Das Din musste zum Termin raus!

Vieles waren ganz doofe Anfänger-Fehler!
z.B. SASSER. Das Problem lag in der Automatisierungs-Schnittstelle. Per Definition wurden nur Meldungen mit maximal 4kB Grösse verwendet. Also nahm man das Datenpaket von der Ethernet-Schnittstelle und kopierte es in einen 4kB Buffer. Dabei wurde aber vergessen, dass Ethernet Pakete bis zu 64kB übertragen kann und hat die Paketgrösse von der Ethernet-Schnittstelle übernommen, aber nicht auf 4kB geprüft! Somit konnte man rund 60kB hinter den Buffer mit eigenen Daten, bzw. Code, überschreiben. Da diese Schnittstelle natürlich standardmässig freigeschaltet war, genügte es, Windows zu installieren und den PC mit dem Netzwerk zu verbinden.
Durch SASSER kam wenigstens MS so weit unter Druck, dass seither regelmässig Updates von MS ausgeliefert werden. Vorher war die Antwort auf Bugmeldungen: "Kaufen sie die neueste Version!". Wobei nicht garantiert wurde, dass der Bug da behoben ist.
Bei Win-95 gab es 5 verschiedene Versionen (95, 95A bis 95C, 95B gab es in zwei Versionen). Allerdings wurde dies nicht nach Aussen wirklich kommuniziert, kaufen konnte man nur Windows-95, was in der Schachtel war, war nicht wirklich ersichtlich.

Der Active-Desktop war auch so eine "geniale Idee". Dabei hat man über den ganzen Desktop noch eine HTML-Schicht gelegt, war eigentlich ein durchsichtiges Fenster des IE. Um Dinge automatisieren zu können, hat man dann HTML einfach erweitert, sodass man auch vollen Zugriff auf die Festplatten hatte und Programme starten konnte. Leider war das dann ALLES auch über Web-Seiten möglich!

Ähnliches geschah auch mit dem lizensierten Java. Die MS-Variante wurde so erweitert, bis die Sicherheit ganz im Keller war und MS die Lizenz verloren hat.

Windows NT sollte der damals sicherste Kernel werden, dazu hat man einen Entwickler von auswärts geholt. Eigentlich wurde dieses Ziel auch erreicht, bis dann die MS-Programmierer direkte Zugriffe auf den Kernel gemacht haben und somit die Sicherheit umgangen wurde. Der extra geholte Entwickler warf daraufhin das Handtuch und verliess MS.

Das Problem ist, dass heute die Entwicklung nichts kosten darf.
Also macht das möglichst ein Praktikant, welcher keine Ahnung hat. Und wenn es in etwa das macht, was es soll, wird es freigegeben. Irgendwelche Tests würden zusätzliche Kosten verursachen und vor allem Zeit beanspruchen. So kommt es halt, dass der ganze PC bei einem Tippfehler abstürzt.
Stichwort: Bananaware, das Produkt reift beim Kunden.

Vor allem die Amis schaffen es bis heute nicht, mit Umlauten umzugehen. Teilweise klemmt es schon auf der Webseite. Teilweise stimmt alles auf der Webseite, aber wenn ich Post oder eMail bekomme ...
(Zum Glück habe ich nur einen Umlaut im Nachnamen)

Die Jeep-Geschichte funktionierte über die Bluetooth-Schnittstelle der Reifensensoren. Für mich ist das ein Anfängerfehler im Konzept, wenn man über diese Schnittstelle vollen Zugriff auf den CAN-Bus und somit auf alles im Fahrzeug erhält. Ein kleines Filter, welches nur die bekannten Meldungen der Reifensensoren weiterleitet, hätte da genügt! Im Prinzip kann ein defekter Reifensensor, welcher zufällige Daten versendet, die ganze Kiste lahmlegen oder auch Vollgas geben!

Jeder Entwickler macht seine Fehler, das ist normal. Viele dieser Fehler macht man aber nur einmal im Berufsleben, dann weiss man es, das nennt man Erfahrung. Ein weiterer Punkt ist noch, ob so ein Fehler in die Produktion geht oder schon vorher, z.B. durch Tests, erkannt wird.

Für einen guten Entwickler ändert sich nichts grundlegendes!
Manche müssen lernen, nicht nur an Funktion ihres Produkts zu denken, sondern auch ein Augenmerk auf das Fehlverhalten zu werfen.
Zudem muss er Zeit für Tests einplanen.
Grundsätzlich müssen die Prozesse dahin geändert werden, dass, nicht nur auf dem Papier, mehr getestet und geprüft wird und man sich nicht einfach auf die Anderen verlässt.

Meine Erfahrung mit ISO 900x war anfänglich, dass die Qualität schlechter wurde, obwohl ISO eigentlich eine Verbesserung bringen sollte.
Aus meiner Sicht war hier das Problem, dass beim Hersteller eine Ausgangs- und beim Empfänger eine Eingangskontrolle vorgeschrieben wurde. Da dachte sich jeder, dass er sich das sparen kann, weil ja der Andere schon kontrolliert, schlussendlich wurde dann gar nicht kontrolliert :-(

MfG Peter(TOO)

- - - Aktualisiert - - -

Hallo,

Für vernetzte Anwendungen wird das natürlich schon zur Herausforderung. Die langen Laufzeiten industrieller Anwendungen führen dazu, dass man die verwendeten Technologien mit Sorgfalt wählen muss. Wir haben Kunden, die unsere Industrie-PC Anwendungen über 10 bis 15 Jahre ohne Update betreiben. Nicht weil wir keine kompatiblen Updates anbieten würden, sondern weil sie das grundsätzlich nicht tun.
Das kenne ich auch so!

In den 80/90er Jahren, wollten einige Auftraggeber, dass ich fertige Interface-Steckkarten verwende. Da war dann das Problem, dass wenn der PC ausgefallen ist, die neuen keine ISA oder EISA Steckplätze mehr hatten. Kompatible Steckkarten, mit den neuen Bussen, gab es dann auch nicht mehr. Also musste man die Software komplett neu erstellen und die Kostenersparnis war dahin ...

Selbst entwickelte Hardware konnte man reparieren.

Später habe ich dann eigene Hardware nur noch über serielle Schnittstellen an den PC angebunden, dieses Konzept funktioniert heute noch :-)

Das mit den Updates ist auch immer so eine Sache.
Wenn es keine grundlegenden Fehler gibt und keine benötigten neuen Funktionen geboten werden, macht ein Update keine Not.

Ich habe das bei Freunden erlebt, welche immer der neuesten Version nachgerannt sind!
Die waren eigentlich immer nur am lernen und sind laufend über neue Bugs gestolpert und kamen somit gar nie richtig dazu produktiv zu arbeiten.
Wenn man länger mit einer Version arbeitet, kennt man auch die Bugs und wie man sie umgehen kann, erlebt also weniger Überraschungen, welche einem beim Arbeiten unerwartet aufhalten.

MfG Peter(TOO)

SPSAmeise
01.04.2016, 20:01
Von welchen Entwicklern reden wir denn jetzt?
Die meisten sind spezialisiert auf Web, Datenbanken oder sonst irgendwas.
Es gibt aber nur wenige, die sich mit komplexen Backends und Security Layern und IoT Architektur auskennen.
Von DLTS Layern auf Bankenniveau mal ganz zu schweigen.

Peter(TOO)
01.04.2016, 20:34
Hallo,

Und ob das eine Herausforderung wird, auch die Frage der Zuständigkeit lässt sich heute noch garnicht so leicht klären.

Denn nach Inbetriebnahme einer komplett digitalisierten Anlage wird auch nicht unbedingt immer
ein IT oder Sicherheitsexperte zum Händchen halten vor Ort sein.

Und wehe die Module für die Du nicht unbedingt verantwortlich bist machen dann mal Probleme, sei es vor Ort
oder per Fernwartung, dann fängt der Spass und Fehlersuche ohne die Anlage samt IT Integration zu kennen erst richtig an.

Die Kunden IT wird in Zukunft aber so oder so eine deutlich wichtigere Rolle einnehmen müssen als heute,
und der Aussendienst wird neben dem Ingenieur auch IT Experten im Team haben, ganz ohne geht es nicht wirklich.

Leider ist das vor allem in KMUs oft so. Da ist einer aus dem Büro, welcher zu Hause hobbymässig ein bisschen programmieren kann, für die IT zuständig.
Zur Katastrophe wird es aber erst, wenn z.B. der Server explodiert und keine aktuellen Backups vorhanden sind ....

Bei Fremdmodulen ist das erste Problem, dass jeder die Schuld einem anderen zuschiebt, was der Problemlösung nicht dient!

Die IT-Experten im Aussenteam, sind auch nicht wirklich die Lösung. Wenn da mehrere Köche im Kunden-Netzwerk rumfummeln, funktioniert dieses auch nie wirklich!


Funktionieren kann es nur, wenn der Kunde EINEN Fachmann für die IT hat, welcher aber auch alles dokumentiert.

Wenn ich mein Gerät an ein Firmennetzwerk anbinden will, muss ich wissen wie dieses Netzwerk aufgebaut und geschützt ist. Nur mit dem Einstecken des RJ-45 ist es nicht getan. Bei einem gut geschützten Netzwerk muss man sich auch ins richtige Netzsegment hängen und Protokolle und Routen freischalten.
Dazu brauche ich jemanden, der sich mit dem konkreten Netzwerk(-Konzept) auskennt oder eine detaillierte aktuelle Dokumentation.

Hier wird sich noch einiges bewegen müssen!

Das ist auch der grundsätzliche Unterschied ob ein Konzept auf eine White- oder Black-List basiert.
Die Black-List ist einfach zu Handhaben, hinkt aber einer Bedrohung immer hinterher, bzw. kommt oft zu spät!
Eine White-List bietet maximale Sicherheit, macht aber Arbeit und Plug and Play ist auch nicht!

Leider hat die Werbung, besonders mit "Plug and Play" die Denkweise der meisten versaut.
Und die meisten PC-Zeitschriften legen mit ihren Produkt-Bewertungen noch nach. Wenn "Plug and Play" nicht funktioniert, dann gibt es schlechte Bewertungen.
Jeder der sich mit der Technik auskennt weiss aber, dass "Plug and Play" nur funktioniert, wenn alle Scheunentore Sperrangel weit offen sind :-(

Wie sag ich's meinem Kunden ?????


MfG Peter(TOO)

White_Fox
01.04.2016, 21:30
Dann ist es umso erstaunlicher, dass Du wirklich glaubst es würde sich durch Industrie 4.0 nichts für Entwickler ändern ...

Was sollte sich deiner Meinung denn auch ändern? Strom fließt immer (technisch) noch von + nach -, und auch Computer schieben nur Nullen und Einsen umher. Ob ich jetzt einem Temperatursensor mit WLAN ausrüste oder etwas anderes-wo soll da der Unterschied sein?
Wenn etwas Neues erfunden werden würde, neue Technologien, neue Werkzeuge...dann würde ich sagen, es ändert sich was. Als man z.B. von Klappertechnik auf elektronische Steuerungen umgesattelt hat-da hat sich was geändert. Aber bei I40 ändert sich nichts. Es stellt lediglich einen neuen Kontext dar, wie bereits (teilweise ziemlich lange) Bestehendes neu verknüpft und angewendet wird. Aber wie gesgt, da ändert sich für Entwickler und Ings kaum etwas.

Versteh mich nicht falsch...die Technik an sich entwickelt sich immer irgendwo ein kleines Stückchen weiter. Das war aber auch vor hundert Jahren schon so, und würde auch ohne I40 so sein, wobei die wirklichen Neuentwicklungen meiner Meinung nach immer seltener werden. Fast alles heutzutage sind entweder Weiterentwicklung oder, wie schon gesagt, eine neue Kombination von bereits schon längst existenter Technik.

Und ich kann mir auch kaum vorstellen daß sich für ITler wirklich viel ändert. Die meisten Herrausforderungen, die I40 mit sich bringt, gab es schon in anderen Bereichen (und wurden dort schon märchenhaft verschlafen). Sichere Funkverbindungen, Verschlüsselungen, Kommunikation in Netzwrken mit mehrern hundert Teilnehmern, harte Echtzeitanwendungen,... alles schon dagewesen.
Für die IT-Abteilungen könnte sich noch ändern, daß von der Firmenleitung neue Aufträge kommen wie "Bremst die Produktion der Konkurrenz". Firmen bekommen ganz neue Möglichkeiten des wirtschaftlichen Wettbewerbs. Stuxnet wäre ein schönes Beispiel, wie der Wettbewerb zukünftig aussehen könnte.
Es mag zwar bescheuert klingen, daß Coca Cola die Produktionsanlagen von Pepsi per Hackangriff lahmlegen würde. Da aber auch schon Geheimdienste von Ländern zur Wirtschaftsspionage angehalten wurden (Stuxnet wurde von staatlichen Geheimdiensten programmiert) würde ich in dieser Hinsicht rein gar nichts mehr ausschliessen. Und ich rede hier nicht von chinesischen oder russischen Hinterhofhackern die in einen amerikanischen Kleinserver einbrechen, sondern von Ländern, wo alle Beteiligten der achsotollen NATO-Partnerschaft angehören.

Peter(TOO)
01.04.2016, 22:36
Hallo SPS-Meise,

Grundsätzlich würde ein Zitat oder eine Anrede, das verfolgen hier vereinfachen. Bei deinen Antworten weiss man nie so genau auf was du geantwortet hast.


Von welchen Entwicklern reden wir denn jetzt?

Beim UP ging es mal um Industrie 4.0 und IoT.
Also um alle Entwickler, welche sich in diesem Umfeld bewegen.

Grundsätzlich habe ich nur 2 Arten von Entwicklern kennen gelernt.
Die einen denken nur bis zu Kante des Labortisches, bei den anderen ist die Welt grösser.


Die meisten sind spezialisiert auf Web, Datenbanken oder sonst irgendwas.
Es gibt aber nur wenige, die sich mit komplexen Backends und Security Layern und IoT Architektur auskennen.
Von DLTS Layern auf Bankenniveau mal ganz zu schweigen.

DLTS kenne ich nur als "Deep Level Transient Spectroscopy"


Nun, früher hat man kritische Anlagen, wie z.B. die Steuerwarte eines AKWs, in einem gepanzerten Raum gesperrt und eine Zutrittskontrolle zu diesem Raum eingerichtet. Das Problem, dass unbefugte da rumspielen, war dadurch gelöst.
Mittlerweile hat dieser Raum aber einen Internet-Anschluss.

Das selbe bei IoT, Kaffee machen konnte, wer zutritt zu meine Kaffeemaschine hatte!
Mit IoT kann das jeder, von irgendwo auf der Welt!

Manche machen das aus Spass an der Freude, bzw. weil sie es können, Andere um wirtschaftlichen Schaden anzurichten und mein Kaffeelieferant vielleicht um seinen Umsatz zu steigern?

Bisher galt für Entwickler, dass der Missbrauch seines Produkts, das Problem des Kunden war.
Wenn die Geräte nun alle vernetzt werden, muss der Entwickler auch Gedanken daran "verschwenden", wie er die Zutrittskontrolle in sein Produkt integriert. Der Kunde muss das dann aber immer noch irgendwie verwalten können.

Ein guter Entwickler hat sich aber schon immer Gedanken zur Sicherheit seines Produkts gemacht, für ihn ändert sich daran nichts.
Das "Geheimnis" guter Software, bestand schon immer aus Plausibilitätsprüfungen und entsprechender Verweigerung einen Befehl auszuführen.

Das fängt bei etwas einfachem wie der Abfrage von Benutzername und Passwort an!
Schlechte Software gibt einen Hinweis, welcher Teil falsch ist, damit hat man schon 50% gehackt, gute Software lässt einem im ungewissen!
Das nächste ist dann, nach z.B. 3 Fehlversuchen den Zugang zu sperren oder eine Wartezeit einzufügen, das verhindert recht gut Brute Force Angriffe und ist Programmtechnisch kein wirklicher Aufwand. Kennt man aber alles schon seit den 60er Jahren.
Hat sich aber immer noch nicht bei allen Programmieren rumgesprochen.

Ich hatte ende 70er Jahre mal einen Streit mit einem Programmierer, weil er nicht im Stande war den Unterschied folgenden Codes zu sehen.


INPUT "Alles löschen", A$
If A$ = "N" THEN GOTO mach_nix
REM Alles löschen
und

INPUT "Alles löschen", A$
If A$ = "J" THEN GOTO alles_löschen
REM Mach nix

Er konnte einfach nicht erkennen, was passiert wenn man sich vertippt und Anstatt "N", ein "M" erwischt. Der konnte nur digital denken und es gab für ihn nur "N" und "J"!

Aber bei vielen Dingen genügt schon gesunder Menschenverstand und es brauch nicht wirklich Spezielles Wissen!
1. Nur verschlüsselte Verbindungen zulassen und nur Protokolle verwenden, welche auch die Passwörter verschlüsselt übertragen. Dazu muss ich mich nicht wirklich mit Verschlüsselung auskennen, dazu gibt es eine Bibliothek.
2. Zwischen Anmeldeversuchen eine Pause erzwingen. Kann man z.B. nur alle 10s eine Eingabe machen, kann auch der schnellste Rechner der Welt nicht mehr als 360 Versuch/h austesten. Bei nur schon einem 4-stelligen PIN, also nur Ziffern, braucht dieser dann im Mittel etwa 14h, für einen Treffer.
3. Timeout der Verbindung, wenn sie eine Weile nicht benutzt wird.
4. Plausibiltätsprüfung! Erst alle Parameter auf Gültigkeit überprüfen und dann den Befehl ausführen. Alles andere wird ignoriert oder ergibt eine Fehlermeldung.

Zusammen mit einem sicheren Netzwerktreiber und IP-Stack, beides ohne Hintertürchen, hat man dann schon ein recht sicheres System.

MfG Peter(TOO)

SPSAmeise
01.04.2016, 22:40
Also ich habe nicht wirklich den Eindruck, dass Du dich schon mal mit der Architektur und Referenzmodellen beschäftigt hast, wenn Du meinst das Entwickler hier nichts dazu lernen müssen.

Peter(TOO)
01.04.2016, 23:33
Hallo,

Für die IT-Abteilungen könnte sich noch ändern, daß von der Firmenleitung neue Aufträge kommen wie "Bremst die Produktion der Konkurrenz". Firmen bekommen ganz neue Möglichkeiten des wirtschaftlichen Wettbewerbs. Stuxnet wäre ein schönes Beispiel, wie der Wettbewerb zukünftig aussehen könnte.
Es mag zwar bescheuert klingen, daß Coca Cola die Produktionsanlagen von Pepsi per Hackangriff lahmlegen würde. Da aber auch schon Geheimdienste von Ländern zur Wirtschaftsspionage angehalten wurden (Stuxnet wurde von staatlichen Geheimdiensten programmiert) würde ich in dieser Hinsicht rein gar nichts mehr ausschliessen. Und ich rede hier nicht von chinesischen oder russischen Hinterhofhackern die in einen amerikanischen Kleinserver einbrechen, sondern von Ländern, wo alle Beteiligten der achsotollen NATO-Partnerschaft angehören.

Scheint alles schon Realität zu sein!

Im Darknet kann man aktuell, für etwa 60€/h DOS-Attacken bestellen. 10 Minuten, soll es als Muster gratis und für längere Attacken soll es dann entsprechenden Rabatt geben.
War hier in CH letzte Woche gerade ein aktuelles Thema, da mehrere DOS-Attacken auf Firmen stattgefunden haben.

Stuxnet war aber eigentlich auch nicht neu!
So Mitte der 80er Jahre gab es einen Virus, welcher auf IBM-PCs mit MC6845 Videcontroller die Bildfrequenz erhöht hat. Die damaligen IBM-Monitore hatten noch keinen Schutz vor einer zu hohen Bildfrequenz, das waren technisch eigentlich noch Fernseher. Hierbei wird die Hochspannung aus dem Zeilentrafo gewonnen, welcher mit der Bildfrequenz betrieben wird. Mit der Bildfrequenz steigen die Trafoverluste. Am Ende brannte dann meist der Zeilentrafo oder die Treiberstufe durch. Neben der Bildröhre war der Zeilentrafo das teuerste Ersatzteil.
Da es damals noch kein Internet in der heutigen Form gab, verbreitete sich dieser Virus über Disketten. Es genügte eine saubere Diskette in einen infizierten PC einzuschieben und schon war der Virus auf der Diskette. Also war auch Stuxnet ein alter Hut!

MfG Peter(TOO)

- - - Aktualisiert - - -

Hallo,

Also ich habe nicht wirklich den Eindruck, dass Du dich schon mal mit der Architektur und Referenzmodellen beschäftigt hast, wenn Du meinst das Entwickler hier nichts dazu lernen müssen.

Ich weiss nicht mehr wie viele Protokolle ich auf µCs, von Scratch, implementiert habe, teilweise noch in Assembler. In den 80er Jahren war auch mal ein bei der S5 gebräuchliches dabei. Dazu kommen noch einige selber entwickelte Protokolle für propertiäre Anwendungen. Eigentlich alle nach dem OSI-Modell, wobei man nicht immer alle Schichten benötigt und manche Schichten auch zusammenfassen kann.
TCP/IP besteht, im Gegensatz zu den 7 Schichten bei OSI, auch nur aus 4 Schichten.

MfG Peter(TOO)

SPSAmeise
02.04.2016, 10:41
Hallo Peter,

meine Antwort galt whitefox, habe nicht bemerkt das Du zwischenzeitlich schon geschrieben hattest.
Werde mich heute mal registrieren, um zukünftig meine Beiträge editieren zu können.



DLTS kenne ich nur als "Deep Level Transient Spectroscopy

Gemeint war natürlich DTLS (Datagram Transport Layer Security) als Teil der Architektur, hatte mich nur verschrieben.


Es ging mir allerdings nicht nur um die Architektur, Referenzmodelle oder die IT Infrastruktur einer digitalisierten Anlage samt Security und Netzwerk Integration,
sondern auch um Weiterbildung und Ausbildung für das eigentliche Ziel von Industrie 4.0 , die Maschinen und Sensordaten so zu analysieren , dass eine bessere und Kostensparende Produktion möglich wird.
Und genau dieser Bereich hängt stark von Data Science , Big Data und IoT Analytics ab, ein Fachgebiet bei dem Deutschland weit hinterher hinkt und sich leider auch
an den bisher schlecht oder garnicht vorhanden Ausbildungsmöglichkeiten in Deutschland erkennen lässt.

Die Realität sieht also so aus, dass die deutsche Industrie stark von der engen Kooperation mit den USA abhängt, egal ob Netzwerktechnik oder Data Science.
Die Innovation und das Fachwissen stammt wieder mal nicht aus Deutschland sondern aus dem Ausland , ausgerechnet im sensibelsten Bereich, dem Data Management.

Sich von Experten aus dem Ausland Unterstützung zu holen, oder sich in IT Teilbereichen beraten und zertifizieren zu lassen, ist eine Sache aber langfristig keine
ausgebildeten Fachleute für Data Analytics aus Deutschland zu haben eine völlig andere.

White_Fox
02.04.2016, 15:22
@SPSAmeise:
Die übliche Einarbeitung in ein neues Thema betrachte ich in diesem Zusammenhang nicht als "dazulernen" an. Für gute Ingenieure gehört die stetige Weiterbildung meiner Meinung nach zum Berufsalltag und ist sein täglich Brot, I40 hin oder her. Ich spreche hier allerdings nur für mich, ob das allgemein übertragbar ist weiß ich nicht-auch wenn ich weiß daß das zumindest hier wohl eher auf Zustimmung stoßen wird.


Es ging mir allerdings nicht nur um die Architektur, Referenzmodelle oder die IT Infrastruktur einer digitalisierten Anlage samt Security und Netzwerk Integration,
sondern auch um Weiterbildung und Ausbildung für das eigentliche Ziel von Industrie 4.0
Gibts doch schon...Elektrotechnik, Informatik-was braucht es mehr? Es gibt schon genug Bindestrich-Ings, mehr sollten es nicht werden. Es mag in den USA so Sitte sein, für jeden Mist einen eigenen Studiengang zu schaffen, so wie ich das aber sehe kommt man nach deutscher Mentalität damit nicht weit. Und das ist gut so. Die deutsche Ausbildung ist in den meisten Fällen noch einigermaßen darauf ausgelegt, den Leute die Grundlagen verstehen zu lehren. Mit dem Wissen, wie was funktioniert, kann man eigentlich alles machen. Das ist weitaus flexibler und ich halte es auch für effizienter, als lauter Medieninformatiker, Medizininformatiker, technische Informatiker, Bio- Umwelt- Wirtschaftsinformatiker...heranzuzüchten. Aber ich denke das führt zu weit vom Thema weg.

Ich wäre allerdings immer noch an einer Antwort von dir auf meine Frage im ersten Post interessiert: Was sollte sich deiner Meinung nach denn für Entwickler und Ings durch I40 ändern?

SPSAmeise
02.04.2016, 16:53
@SPSAmeise:
Die übliche Einarbeitung in ein neues Thema betrachte ich in diesem Zusammenhang nicht als "dazulernen" an. Für gute Ingenieure gehört die stetige Weiterbildung meiner Meinung nach zum Berufsalltag und ist sein täglich Brot, I40 hin oder her.

Eben, es gehört zum Berufsalltag.

Digitalisierte Module erfordern ein etwas anderes Verständnis als bisherige Konstruktionen, weil die Komplexität durch CPS für Ingenieure und Entwickler eine ganz neue Dimension in ihrem Alltag bedeutet.
Wenn das alles so easy und selbstverständlich wäre, würden sich Experten und der Nachwuchs beispielsweise nicht mit Lernmodellen wie der CP Factory von Festo auseinandersetzen, und Firmen wie Cisco würden nicht gemeinsam mit der deutschen Industrie an der IT Infrastruktur arbeiten.



Gibts doch schon...Elektrotechnik, Informatik-was braucht es mehr?

Das ist viel zu einfach gedacht, in erster Linie braucht es Ausbildung und Erfahrungswerte um mit einer modernen Smart Factory und den neuen Standards umgehen zu können.



Es gibt schon genug Bindestrich-Ings, mehr sollten es nicht werden. Es mag in den USA so Sitte sein, für jeden Mist einen eigenen Studiengang zu schaffen, so wie ich das aber sehe kommt man nach deutscher Mentalität damit nicht weit. Und das ist gut so.

Ich wüsste nicht was gut daran sein soll, sich in gemachte Nester zu setzen und sämtlichen Fortschritt zu verschlafen und alles dem innovativen Ausland zu überlassen.
Das hat übrigens nichts mit Mentalität zutun, sondern konkret in dem Beispiel mit Mathematik und Statistik , um überhaupt verlässliche Modelle aus IoT Daten für machine learning oder predictive maintenance umsetzen zu können.



Was sollte sich deiner Meinung nach denn für Entwickler und Ings durch I40 ändern?

Das habe ich weiter oben bereits aufgeführt und ist Teil der Weiterbildung, die für Dich scheinbar nichts mit dazu lernen zutun hat.

White_Fox
02.04.2016, 17:24
@SPSAmeise:
Ich glaube, wir beide haben da eine verschiedene Sicht auf die Dinge-insbesondere auf die Arbeit eines Ingenieurs und die Bedeutung des Wortes "neu".


Wenn das alles so easy und selbstverständlich wäre, würden sich Experten und der Nachwuchs beispielsweise nicht mit Lernmodellen wie der CP Factory von Festo auseinandersetzen, und Firmen wie Cisco würden nicht gemeinsam mit der deutschen Industrie an der IT Infrastruktur arbeiten.
Ich habe mir gerade mal die CP Factory angesehen...auf den ersten Blick erinnert mich das doch sehr an das Produktionsstrassenmodell, daß in meienr Hochschule im Automationslabor steht. Die CP Factory ist vielleicht ein wenig komplexer, aber ich sehe da viele Parallelen. Und damit ist es nichts, was ich als neu bezeichnen würde.

Auch digitalisierte Module als solches sind für Entwickler nicht neu, jedenfalls nicht für jeden Entwickler. Eigentlich nimmt die Modularisierung Einiges an Komplexität aus der Arbeit, denn die Modularisierung läßt ein mehr oder weniger komplexes System zu einer Blackbox mit einer Schnittstelle verkommen. Die interne Funktion interessiert oft nicht mehr, und deren Verständnis wird auch zugegebenermaßen zunehmend unwichtig. Bis Murphys Gesetz zuschlägt.


Das ist viel zu einfach gedacht, in erster Linie braucht es Ausbildung und Erfahrungswerte um mit einer modernen Smart Factory und den neuen Standards umgehen zu können.
Nun, was ist dir denn lieber: Ein Ing der weiß warum er was tut, oder jemand der allerlei Kochrezepte anwenden kann, dessen tieferes Verständnis aber dafür auf der Strecke bleibt. Gerade die Bindestrich-Informatikfächer führen eher zu letzterem, soweit ich das beobachten kann.

Mehr Bindestrich-Fächer führen meines Erachtens nicht zu mehr Fortschritt, es hat auch eher wenig mit Innovation zu tun.

i_make_it
02.04.2016, 19:06
Das mit den hochtrabenden Titeln für jeden Mist der aus USA rüberschwappt habe ich schon in ein paar Firmen erlebt.
Da hatte ein Kollege von mir (E-Technik Dipl. Ing.) dann den HPCTRE mit Zertifikat kreiert um das mal etwas zu überspitzen
H-ewlett
P-ackard
C-ertified
T-oner
R-efill
E-ngineer
Und den CASPAM.
C-offee
A-nd
S-moking
P-ause
A-dministarion
M-anager

Es gibt vieles für das man nur einen extra Titel braucht um zu verschleiern, das es einem an gesundem Menschenverstand mangelt. (siehe USA Klagen zu: was man in die Microwelle nicht reintuen sollte)

SPSAmeise
02.04.2016, 19:37
@SPSAmeise:
Ich glaube, wir beide haben da eine verschiedene Sicht auf die Dinge-insbesondere auf die Arbeit eines Ingenieurs und die Bedeutung des Wortes "neu".

Ich glaube eher, dass Du Industrie 4.0 und Data Science ein wenig unterschätzt, aber das ist wirklich nicht neu, denn mit der Einstellung bist Du in Deutschland nicht allein.

i_make_it
02.04.2016, 22:07
Data Science ein wenig unterschätzt

Dank Verkürzung der Studiendauer mit Einführung von Bachalor und Master, kommt so ein 40 Jahre altes Teilgebiet der Mathematik und Informatik zu einem eigenen Berufsbild.
Für mich wieder ein Spezialist mehr der mit Scheuklappen rumrennt.

Kurz vor Ende meiner Lehre gab es die Neuordnung der Metall- und Elektroberufe mit der besser ausgebildete Fachkräfte zur Verfügung stehen sollten.
Aus meinem Beruf Werkzeugmacher, wurden 5 neue Berufe.
Mit dem Ergebniss von nur halb ausgebildetem (spezialisiertem) Personal, habe ich mich dann 15 Jahre durch X Firmen rumgeschlagen (Bei mir war es noch Pflicht alle 5 Teilbereiche zu lernen).

Als ich im zweiten Jahr meines Maschinenbautechnikers war, hatte Hessen umgestellt auf die Spezialisierung.
Somit gabe es da plötzlich auch 6 Berufe anstelle von einem wie bei mir. Das merke ich bis heute, immer wenn einer kommt und meint das er sich dieses oder jenes nicht spezialisiert hat.
Ich mußte das noch alles in den 2 Jahren lernen. Da gingen halt auch ein Großteil der Ferien drauf und man hat mehrere Wahlkurse über die Pflichtfächer hinaus belegt um gut zu sein.

Da ich feststellen mußte, das in den meisten Projekten die Probleme die interdisziplinäre Kommunikation ist,
wird der Data Scientist das Problem nicht lösen, sondern im besten Fall nicht verschlimmern.

Neu ist bei I40 für Entwickler und Ingenieure wirklich nichts (zumindest für die die in ihrer Ausbildung schon mehr als "nur" das Notwendigste gemacht haben und auch danach sich nicht auf einem Stück Papier ausgeruht haben), man wirft jetzt nur mal wieder ein paar Sachen zusammen die vor X Jahren nicht funktioniert haben und nun dank weiterentwickelter Technik klappen könnten (in einigern Bereich, aber vermutlich nicht überall).

SPSAmeise
03.04.2016, 09:31
Dank Verkürzung der Studiendauer mit Einführung von Bachalor und Master, kommt so ein 40 Jahre altes Teilgebiet der Mathematik und Informatik zu einem eigenen Berufsbild.
Für mich wieder ein Spezialist mehr der mit Scheuklappen rumrennt.

Ich stelle fest das Du keine Ahnung auf diesem Gebiet hast.

Der Begriff Data Science wie er seit 40 Jahren existiert , hat mit den heute angewandten Methoden und Modellen nur noch wenig zutun.
Data Science spielt heute eine ganz entscheidene Rolle im Machine und Deep learning.
Denn auch die Lernmethoden für künstliche Intelligenz und neuronale Netze haben sich ein wenig verändert seit den 80er und 90ern.
Desweiteren reden wir von Milliardenumsätzen im Bereich Predictive Analytics und Kostensparende Produktionen durch predictive maintenance,
was ohne IT Vernetzung in der Industrie überhaupt nicht möglich wäre.

Für präzise Modelle braucht es aber nicht nur Kenntnisse in Mathematik und Statistik sondern vorallem verlässliche Datenquellen und Daten von hoher Qualität.
Allein das Data cleaning in einer Real Time Umgebung ist insbesondere durch Big Data und IoT eine ziemliche Herausforderung geworden, die nicht mal eben so
von irgendwelchen Eigenbrödlern mit Selbstüberschätzung umgesetzt werden, sondern von Data Science Teams, um je nach Anforderung und Modell
zu einem verlässlichen Ergebnis innerhalb einer analytischen Plattform zu kommen.

Und das sämtliche Maschinen und Sensordaten der Industrie für analytische Zwecke, nicht in die Hände der falschen Teams gehören, bedarf wohl keiner weiteren Erklärung.

Mxt
03.04.2016, 11:19
Denn auch die Lernmethoden für künstliche Intelligenz und neuronale Netze haben sich ein wenig verändert seit den 80er und 90ern.

Ne, die grade nicht. Neuronale Netze hatte ich im Studium im Nebenfach E-Technik. So viel hat sich da nicht getan. Nur dass man heute auf GPU-Clustern Dinge laufen lassen kann, für die früher die Computer zu klein waren. Deep Learning als Prinzip wurde damals schon gelehrt. Dinge die heute das Human Brain Project in Software simulieren kann, finden sich schon als Mikroskopaufnahmen in meinen alten Vorlesungsfolien.

Der Rest ist Buzzword Bingo eines unreg, da brauch man nicht weiter zu lesen.

i_make_it
03.04.2016, 11:35
Für präzise Modelle braucht es aber nicht nur Kenntnisse in Mathematik und Statistik sondern vorallem verlässliche Datenquellen und Daten von hoher Qualität

Das ist jetzt nicht wirklich neu und hat auch nicht im mindesten was mit Data Science zu tun.
Das ist quasi ein Axiom das bereits seit Entstehung dem Universums gilt.
Daß das von jemand vereinnahmt wird, macht es nicht zu einer Neuheit.
Im Ingenieurswesen arbeitet man eigentlich immer so, sonst gäbe es viel mehr einstürzende Neubauten etc.
Die Finite Elemente Methode ist eigentlich eine reine Anwendung dieses Prinzips um Vorhersagen zur Bauteilfestigkeit machen zu können.
Es handelt sich also wieder um ein altes Prinzip das man auf eine neuen Sektor und mit anderen Mitteln anwendet.



Der Begriff Data Science wie er seit 40 Jahren existiert , hat mit den heute angewandten Methoden und Modellen nur noch wenig zutun.

Allerdings sind auch fast alle Methoden und Modelle nicht neu sondern nur nach langer Zeit aus dem Elfenbeinturm der theoretischen Mathematik in die praktische Anwendung geholt worden.
Größtenteils ist nur die Rekombination neu.



Data Science spielt heute eine ganz entscheidene Rolle im Machine und Deep learning.

Eher umgekehrt, Deep Learning, Deep Data Mining und Maschnelles Lernen spielen heute eine große Rolle in Data Science.
Meine Literatur dazu stammt halt aus der KI Forschung, somit ist das für mich auch alt.
Konkret, mein ätestes Buch ist von 1994 (Addison-Wesley Genetische Algorithmen und Evolutionsstrategien).
Auch die Mustererkennung in Daten ist alt und hat sich aus der Muster und Objekterkennung der Bildverarbeitung in der KI entwickelt.



Denn auch die Lernmethoden für künstliche Intelligenz und neuronale Netze haben sich ein wenig verändert seit den 80er und 90ern.

Das ist üblich das es in über 30 Jahren Weiterentwicklungen gibt.
Wer sowas verschläft, für den ist das dann natürlich neu und überraschend.
Das ist aber in allen Bereichen des Lebens so und kein I40 spezifisches Phänomen.



Desweiteren reden wir von Milliardenumsätzen im Bereich Predictive Analytics und Kostensparende Produktionen durch predictive maintenance,
was ohne IT Vernetzung in der Industrie überhaupt nicht möglich wäre.

OK, dann habe ich 1985 intelligente vorbeugende Instandhaltung gemacht als es noch gar nicht möglich war.
Da muß meine Firma Ihrer Zeit also 30 Jahre vorraus gewesen sein.
Und das Wunder beherscht haben, all das mit einem Mainframe ohne Netzwerk zu machen, da es ja ohne IT nicht möglich wäre.
Lean Management und Lean Production schwappten damas grade aus Asien rüber, also kostensparende Produktion als neu zu bezeichnen ist nicht wirklich sinnig.
In einer Marktwirtschaft ist es immer das Ziel so kostensparend wie möglich zu Produzieren und möglichst teuer zu verkaufen.
Das Prinzip der Gewinnmaximierung ist wohl eher eines der ältesten marktwirtschaftlichen Prinzipien überhaupt.
Auch die Vorhersage von Trends und Ereignissen durch Datenanalyse findet man schon in "die Kunst des Kreiges", das Buch jetzt 2500 Jahre Alt.
Da sollte eine Weiterentwicklung mit angepassten Mitteln und Methoden der Zeit zu erwarten sein.



Allein das Data cleaning in einer Real Time Umgebung ist insbesondere durch Big Data und IoT eine ziemliche Herausforderung geworden, die nicht mal eben so
von irgendwelchen Eigenbrödlern mit Selbstüberschätzung umgesetzt werden, sondern von Data Science Teams, um je nach Anforderung und Modell
zu einem verlässlichen Ergebnis innerhalb einer analytischen Plattform zu kommen.

Das größere Projekte von mehr qualifizieretem Personal besser und schneller gelöst werden wie von Laien ist jetzt auch nicht wirklich neu.
Das Prinzip hat zur Arbeitsteilung und Entstehung von Berufen geführt.

White_Fox
03.04.2016, 11:53
Dieses Buzzword-Bingo von SPSAmeise erinnert mich sehr stark an den unregistrierten Nutzer Robobionic aus diesem Thread:
https://www.roboternetz.de/community/threads/67801-weltweit-erstes-Neuronales-Jordan-Netz-auf-Arduino-Due-!

Lauter tolle, hochmoderne neue Schlagworte gepaart mit der anscheinenden Unfähigkeit, diese Worthülsen mit Sinn zu füllen. Ich schätze, auf mikrocontroller.net ist da jemandem wohl zu langweilig geworden und hat sich hierher verirrt.

Mxt
03.04.2016, 12:03
Aber indirekt kann man da viel über das eigentliche Thema dieses Threads lernen. In solchen Projekten hat man sie dann alle: Den klassischen Heißlufterzeuger und den "Spezialisten für Alles.

SPSAmeise
03.04.2016, 14:21
Dieses Buzzword-Bingo von SPSAmeise erinnert mich sehr stark an den unregistrierten Nutzer Robobionic aus diesem Thread:
https://www.roboternetz.de/community/threads/67801-weltweit-erstes-Neuronales-Jordan-Netz-auf-Arduino-Due-!

Lauter tolle, hochmoderne neue Schlagworte gepaart mit der anscheinenden Unfähigkeit, diese Worthülsen mit Sinn zu füllen. Ich schätze, auf mikrocontroller.net ist da jemandem wohl zu langweilig geworden und hat sich hierher verirrt.

Da Dir offensichtlich zum Thema keine Argumente einfallen, und in vielen Deiner Beiträge nur mit Behauptungen um Dich schmeisst, scheint dies Dein persönlicher Stil zu sein mit den Meinungen anderer umzugehen.
Auf Dein Niveau werde ich mich ganz sicher nicht begeben, dazu gibt es hier zuviele Diskussionspartner, die um einiges reifer sind als Du und vorallem sachlich bleiben.

i_make_it
03.04.2016, 18:55
In solchen Projekten hat man sie dann alle: Den klassischen Heißlufterzeuger und den "Spezialisten für Alles.

Den "Spezialisten für Alles" hätte ich gerne an meiner Seite ;).
Ich habe mich am Freitag auch als "Universalist" vorgestellt, um eine Abrenzung zum Generalisten und zum Spezialisten darzustellen.
Jeder Spezialist in dem Team ist mir überlegen, aber ich kann mich mit den meisten fast auf Augenhöhe unterhalten und auch etwas in die Tiefe gehen.
Mein Vorteil ist es halt recht breit und branchenübergreifend aufgestellt zu sein.
Man muß halt open minded durch Arbeitsleben gehen und manchmal auch bereit sein die Spur zu wechseln und nicht nur auf ausgetretenen Pfaden wandeln.

SPSAmeise
03.04.2016, 20:34
...

Da ich feststellen mußte, das in den meisten Projekten die Probleme die interdisziplinäre Kommunikation ist,
wird der Data Scientist das Problem nicht lösen, sondern im besten Fall nicht verschlimmern.

...

Auch die Mustererkennung in Daten ist alt und hat sich as der Muster und Objekterkennung der Bildverarbeitung in der KI entwickelt.


Es geht nicht um Dein auswendig gelerntes Grundwissen sondern um die heutigen Möglichkeiten und die daraus resultierende Datenqualität.
In den 80ern und 90ern hatten wir es nicht mit Realtime Analytics auf Basis von Big Data und IoT Streams zutun, weil uns die Daten und Technologie
gefehlt hat um performante Ergebnisse mit Deep Learning und Analytics in Echtzeit möglich zu machen.
Durch heutige Streaming Systeme und das Potential der bereits erwähnten GPU Lösungen haben wir einige Fortschritte machen können.

Die hohe Flexibilität beim Datastorage und die Datenmengen bieten uns also erst heute die Möglichkeit, die es für effiziente
Lernmethoden und genauere Analysen braucht. Wer soll denn Deiner Meinung nach dem Kunden die Qualität dieser Daten erklären und wer
soll ihn über mögliche Schwachstellen der Modelle aufklären. Die meisten Entwickler und Ingenieure werden wohl eher mit den Schultern zucken
und zugeben müssen, dass sie sich damit nicht so richtig auskennen, und das aus gutem Grund, weil das Data cleaning und die Modelle nicht
in ihren Verantwortungsbereich fallen.

Auf der einen Seite wirkt der ein oder andere von Euch schon fast panisch, in Threads indem es um das Thema Security und Vernetzung geht, aber wenn
wir dann mal über Datenschutz und Datenqualität reden, soll man nach Eurer bisherigen Argumentation ruhig auf unqualifiziertes Personal vertrauen,
die dann auch noch sämtliche Sensordaten durch irgendeine analytische Platform nudeln, von denen der Kunde kaum was versteht, weil es ihnen
nach Eurer bisherigen Vorstellung nämlich auch niemand erklären können wird. Es hat also einen guten Grund weshalb Unternehmen in Data Science investieren,
denn das ist um einiges Zielführender als sich das Geschwafel der 90er anzuhören.

Mxt
04.04.2016, 07:05
Den "Spezialisten für Alles" hätte ich gerne an meiner Seite ;).
Jeder Spezialist in dem Team ist mir überlegen, aber ich kann mich mit den meisten fast auf Augenhöhe unterhalten und auch etwas in die Tiefe gehen.


Bei mir meldet sich da halt das Bauchgefühl, wie bei den erwähnten Praktikern in der Produktion.

Schreibst du über Maschinenbau denke ich als Laie, "aha, ein solide ausgebildeter Praktiker". Je näher die Antwort meinem Arbeitsgebiet kommt, sagt der Bauch "Berater ? Berufschullehrer ?". Es ist dieses Gefühl "so steht es sicher im Lehrbuch, keine Ahnung", jemand der das macht hätte es so nicht gesagt.

Peter(TOO)
04.04.2016, 15:16
Hallo,

Für präzise Modelle braucht es aber nicht nur Kenntnisse in Mathematik und Statistik sondern vorallem verlässliche Datenquellen und Daten von hoher Qualität.
Allein das Data cleaning in einer Real Time Umgebung ist insbesondere durch Big Data und IoT eine ziemliche Herausforderung geworden, die nicht mal eben so
von irgendwelchen Eigenbrödlern mit Selbstüberschätzung umgesetzt werden, sondern von Data Science Teams, um je nach Anforderung und Modell
zu einem verlässlichen Ergebnis innerhalb einer analytischen Plattform zu kommen.
Das Ganze hat aber noch einen grossen Haken!

Es ist nicht erwiesen, dass unsere Welt überhaupt deterministisch ist.

Die Chaosforschung (Schmetterlingseffekt) und die Quantenphysik, weisen da teilweise in eine andere Richtung.

Viele Trends kann man auch herbeireden, bzw. werden zur Selbsterfüllung. Wenn ein Börsen-Guru schreibt, dass eine Aktie nächste Woche steigen wird, tut sie das auch, aber nur weil alle seine Anhänger sich auf diese Aktie stürzen. Kurz darauf stürzt sie dann wieder ab, weil nur heisse Luft dahinter war.

Ich befürchte, dass wir und eines Tages auf dem deterministischen Glatteis befinden und dann nur die Wahl haben, alles als falsch zu betrachten oder uns diesem Weltbild anzupassen. So in etwa wie dies bei der Astrologie auch abgelaufen ist!

MfG Peter(TOO)
P.S. Wo geht's hier zum Philosophiebrett?

SPSAmeise
11.04.2016, 14:40
Hallo,

Das Ganze hat aber noch einen grossen Haken!

Es ist nicht erwiesen, dass unsere Welt überhaupt deterministisch ist.

Da hast Du Data Science und konkret Predictive Analytics komplett falsch verstanden, denn bei solchen Modellen geht es nicht darum eine Kristallkugel zu erfinden,
sondern um mehr Transparenz und Entscheidungshilfen zu bieten. Das bedeutet aber nicht das Entscheider ihre Verantwortung abgeben, und blind auf die Modelle vertrauen.
Es geht einfach nur darum einen tieferen Einblick in die Daten zu bekommen, wie es bei Business Intelligence, Risk Management und Controlling schon immer der Fall war,
nur lässt es sich heute erst mit Hilfe durch IoT und Big Data noch um einiges effizienter nutzen.

Peter(TOO)
11.04.2016, 21:41
Hallo,

Da hast Du Data Science und konkret Predictive Analytics komplett falsch verstanden, denn bei solchen Modellen geht es nicht darum eine Kristallkugel zu erfinden,
sondern um mehr Transparenz und Entscheidungshilfen zu bieten. Das bedeutet aber nicht das Entscheider ihre Verantwortung abgeben, und blind auf die Modelle vertrauen.
Es geht einfach nur darum einen tieferen Einblick in die Daten zu bekommen, wie es bei Business Intelligence, Risk Management und Controlling schon immer der Fall war,
nur lässt es sich heute erst mit Hilfe durch IoT und Big Data noch um einiges effizienter nutzen.

Ach Nö!!!

Lies doch mal mein Zitat und versuche zu verstehen, WAS du geschrieben hast.
Ich denke du hast dich in den ganzen englischen Schlagworten etwas verfangen.

Reine Datenanalyse ist eine ABM-Massnahme, wenn man nicht versucht daraus ein Modell zu erstellen, welches dann Vorhersagen erlaubt.


Das bedeutet aber nicht das Entscheider ihre Verantwortung abgeben, und blind auf die Modelle vertrauen.
Das haben wir doch schon bereits! z.B. bei der Börse. Da gab es auch schon einen Börsencrash, weil alle Programme mit den selben Standard-Parametern gearbeitet haben.

Und was ist die Schufa der Banken? Eine Datenbank, auf Grund derer das Risiko deine Kreditwürdigkeit beurteilt wird. OK, etwas primitiv, aber vom Prinzip nichts anderes als das was als Zukunft verkauft wird. Zudem gibt es schon länger "Expertensysteme" bei den Banken, welche Risiken bewerten.

Auch die ganze angewandte Werbepsychologie arbeitet mit Modellen, welche das Verhalten der Kunden vorhersehbar machen. Grundsätzlich ist es dabei egal ob jetzt die Daten von Hand oder direkt elektronisch erfasst werden. Falls du es noch nicht bemerkt hast, wird dir heute auf vielen Seiten Werbung angeboten, welche darauf basiert, was du dir in letzter Zeit an Produkten angesehen hast. Mit Blockern kann man sich dagegen wehren, aber manche Seiten, besonders Zeitungen. lassen sich mit Blocker gar nicht mehr lesen...
Nun, was ändert sich mit IoT? Ich werde dann ein Abo für den Kaffee angeboten bekommen, weil die Lieferanten meinen Kaffee-Verbrauch ermitteln können ....

Eine Frage ist, ob ICH das überhaupt will? Ohne entsprechende Gesetze werde ich aber gar nicht gefragt werden! Das der Kaffeemaschinen-Hersteller, meine Verbrauchsdaten weiter verkauft steht dann irgendwo in den Garantie Bestimmungen und alles wird mit dem erstmaligen Einschalten akzeptiert! Falls ich die Kaffeemaschine nicht ins Netz lasse, wird sie mich nach ein paar Wochen mit irgendwelchen Fehlermeldungen nerven...

Wenn die technische Entwicklung in die Richtung geht, welche sich manche Firmen heute wünschen, wird es mehrer Gegenkulturen in der Gesellschaft erzeugen. Einige gehen zurück in die Vergangenheit und werden alle Technik mit µCs ablehnen. Andere werden die Geräte hacken und rooten und ihnen so das "nach Hause telefonieren" abgewöhnen. Wider andere werden sie einfach im Netzwerk blockieren und Dummy-Server installieren, damit die Kaffeemaschine sich nicht vereinsamt fühlt. Und die Spassvögel, werden die Firmenserver mit unsinnigen Daten füttern, sodass die ganzen Datenbestände nutzlos werden, bzw. nur mit viel Aufwand bereinigt werden können :-)
Das hat man letzthin gesehen, als MS Versuch mit ihrem Chatbot Tya gemacht hat. Der wurde absichtlich so gefüttert, dass er rassistisch, frauenfeindlich und ein Wendehals wurde und schon nach einem Tag vom Netz genommen werden musste.

MfG Peter(TOO)

SPSAmeise
12.04.2016, 10:25
Ach Nö!!!

Lies doch mal mein Zitat und versuche zu verstehen, WAS du geschrieben hast.
Ich denke du hast dich in den ganzen englischen Schlagworten etwas verfangen.

Und ich denke, Du hast Dich ein wenig zu sehr in Moral und Philosophie verfangen und Dich dadurch noch weiter vom Thema entfernt.

Unregistriert
05.12.2016, 15:02
Haha ja es ist teilweise wirklich sehr amüsant zu sehen wie 4.0er Systeme da implementiert werden wo sie nichts nützen weil gerade Geld da ist oder man sich damit rühmen will und auf der anderen Seite die Unternehmen und Branchen, die es wirklich gebrauchen könnten, noch nie davon gehört haben.
Ich persönlich sehe bei diesem Buzzword immer die erhöhte Hackbarkeit im Vordergrund. Firmen, die solche Lösungen nicht brauchen und sie deshalb sehr wahrscheinlich auch nicht voll verstehen immer vernetzter zu machen wirkt schon fast wahnsinnig in Zeiten starker Cyber-Kriminalität.
Ist natürlich aber auch eine Chance für Experten und Berater. Ich persönlich bin ein ziemlicher Fan von Gambit (https://www.gambit.de/) und werde mich jetzt auch da bewerben. Von daher sehe ich (muss ich ja dann beruflich ;) ) da natürlich auch jede Menge Potenzial! Aber es muss sich da wirklich etwas in der Wirtschaft ändern wenn einfach nur mit Schlagwörtern um sich geworfen wird und jedem Trend um jeden Preis nachgerannt werden muss...
lg

i_make_it
05.12.2016, 19:17
Am Donnerstag ist in Mannheim die erste Cybersecurity Konferenz, Schwerpunkt ist da Cyberkriminalität.
Da auch das Netztwerk Smartproduction beteiligt ist, wird es dort im Schwerpunkt um IoT gehen, aber I4.0 wird wohl auch etwas angesprochen.
Link: cybersecurityconference.de
Ab 14:00 beginnt der Kostenfreie Teil für interessierte Privatpersonen.

White_Fox
07.12.2016, 17:41
Hehe, war da nicht letzte Woche irendwas mit massenhaft vielen Routern und einem Hackangriff?

Ein schnöder Router ist zwar nicht unbedingt Industrie 4.0 oder IoT-spezifisch (wobei, Letzteres eigentlich ja doch), aber im Prinzip potentieren I4.0 und IoT das Problem der sog. Cyberkriminalität nur, sowohl hinsichtlich der Angriffsmöglichkeiten, Angriffswahrscheinlichkeit als auch der Folgenschwere. Eine Diskussion, ob da möglicherweise Absicht dahintersteckt, wäre mal interessant.

Unregistriert
17.02.2017, 10:28
Hallo :D
Es gibt auf jeden Fall die Möglichkeit für Entwickler in der Industrie 4.0 Aufträge zu bekommen. Wie so oft braucht man nur die richtige Idee mit der optimalen Umsetzung!
Ich habe Beispielsweise vor kurzem von einem Unternehmen gehört, dass ein Programm namens Qnnect (https://www.qnnect.com/) entwickelt hat, womit man super einfach und effizient mit seinen Mitarbeitern kommunizieren kann. Das Programm gibt es auch als App wodurch man nicht unbedingt an dem Arbeits-PC sitzen muss um es zu nutzen. Zum einen gibt es einen Chat. Durch die Bündelung auf einem Kommunikationskanal werden alle Informationen und Kernbotschaften wahrgenommen, ohne im E-Mail-Postfach, in der SMS-Box oder in der Faxablage verloren zu gehen. Dann gibt es noch eine Quiz-Funktion. Mittels Quizzes und Leaderboards können Mitarbeitende nachverfolgen, wer im Team zu den ausgewählten Themen führend ist. Eine interaktive
Plattform für Peer-to-Peer wird auch bereitgestellt. Am besten finde ich jedoch, dass sie einen News-Feed anbieten in dem alle wichtige Informationen und öffentliche Dateien auf eine Seite aufgezeigt werden.
Wie du siehst kann man mit ein wenig Kreativität schon einiges auf die Beine stellen!
Ich hoffe ich konnte hiermit ein wenig helfen und wünsche dir noch viel Erfolg in der Industrie 4.0 ;)
Viele Grüße