- SF800 Solar Speicher Tutorial         
Seite 2 von 2 ErsteErste 12
Ergebnis 11 bis 20 von 68

Thema: Frage zu Industrie 4.0 und IoT

Hybrid-Darstellung

Vorheriger Beitrag Vorheriger Beitrag   Nächster Beitrag Nächster Beitrag
  1. #1
    SPSAmeise
    Gast
    Deshalb ist es umso wichtiger, dass man das interdisziplinäre Wissen und seine Kernkompetenzen in den entsprechenden Teams besser ausbaut.
    Davon mal abgesehen halte ich persönlich den Berufserfahrenen Kollegen immer noch für den besten Mentor, nur sollte das eben ein gut ausgebildeter Spezialist auf seinem Gebiet sein.

    Und das sich die Sicherheit mit SPS nie verbessert hat, stimmt so nicht, schon garnicht zwischen Mensch und Maschine.
    Nur erfordert die angestrebte Vernetzung und die Digitalisierung eine andere Sicherheit, die ohne IT Experten kein Ingenieur oder SPS Programmierer alleine bewältigen kann.

  2. #2
    Erfahrener Benutzer Robotik Einstein
    Registriert seit
    27.08.2013
    Ort
    Region Basel
    Alter
    67
    Beiträge
    2.435
    Hallo
    Zitat Zitat von SPSAmeise Beitrag anzeigen
    Und das sich die Sicherheit mit SPS nie verbessert hat, stimmt so nicht, schon garnicht zwischen Mensch und Maschine.
    Mensch - Maschine ist weniger ein technologisches Problem, sondern ein ergonomisches!

    Leider wird hier, vermutlich aus Unwissenheit, vieles an der Realität vorbei programmiert. Eigentlich sollten die verantwortlichen Entwickler so 1 bis 2 Tage vor Ort verbringen und etwas mitarbeiten um zu sehen was für die Arbeitsabläufe wichtig ist.

    Genau so, sollten auch alle Geräteentwickler, so mindestens eine Woche im Jahr, im Feld ihre eigenen Geräte installieren und warten müssen. Vieles fällt einem erst auf, wenn man in 6m Höhe auf einer Leiter steht und dann eigentlich drei Hände braucht um eine Messung durchzuführen! Im Labor ist das keine Kunst.

    Ich hatte das Privileg, immer von der Erstellung des Pflichtenheftes bis zur Erstinstallation dabei zu sein. Und bei den hartnäckigen Fehlern, musst ich dann als Entwickler auch immer ins Feld. Man lernt nirgends mehr, für die nächsten Projekte als im Feld!
    z.B. bei einem Projekt für ein Online-Messgerät für das QM, stellte ich am grünen Tisch die Frage, wie die Parameter verwaltet werden können. Hier war dann die Auskunft, dass alles für jede Charge individuell ist. Vor Ort dann, im Gespräch mit dem Maschinenführer zeigte sich, dass es für jeden Auftrag eine Rezeptnummer gibt, welche eigentlich auch die Messparameter enthält! Das waren aber nur so um die 30 Rezepte. Also gab es dann eine kleine Datenbank mit den Rezeptnummern als Eingabe unter welchen die ganzen Parameter abgelegt wurden. Neue Rezepte konnten auch direkt im Programm erstellt werden. Somit war dann auch gewährleistet, dass jede Schicht auch mit den selben Parametern misst.

    Zitat Zitat von SPSAmeise Beitrag anzeigen
    Nur erfordert die angestrebte Vernetzung und die Digitalisierung eine andere Sicherheit, die ohne IT Experten kein Ingenieur oder SPS Programmierer alleine bewältigen kann.
    Das Problem beginnt schon damit, dass die Steuerung überhaupt von ausserhalb des Hauses erreichbar ist. Argument ist meistens die Fernwartung, nur ist ein Zugriff von Aussen meistens höchst gefährlich! Ich will gar nicht wissen, was alles passieren kann, wenn ich bei laufender Maschine ein Firmware-Update mache!
    Der andere Punkt ist, wenn jemand auch nur lesend auf Daten zugreifen kann, er jede Menge erfährt, was ihn nichts angeht.

    So Mitte der 90er habe ich, für einen Kunden, eine Art Smartmeter entwickelt. Da konnte man z.B. genau sehen, wann morgens der erste kommt und das Licht in der Halle an macht, dann lief er zum nächsten Raum und machte auch dort das Licht an... In den Pausen machte der Kaffeeautomat im Bürotrakt die grösste Lastspitze, da konnte man sogar die rausgelassenen Getränke mitzählen. Da waren aber nur 3 oder 4 Stromzähler verbaut.
    Ein anderes Projekt in diesem Rahmen, war ein Spital, da ging es nur um den Gesamt-Stromverbrauch für eine Neuprojektierung. Dir grössten Spitzenströme verursachten die Lifte, dann die OPs. Man konnte da gut erkennen, wenn Nachts ein Not-OP durchgeführt wurde.

    Selbst wenn man Windows als Betriebssystem für eine Maschinen-Steuerung verwendet, muss dieses die automatischen Updates nicht machen können! Wenn sich die Maschinen in einem eigenen geschlossenen Netz-Segment befinden, gibt es keine Probleme mit Malware-Angriffen von Aussen. So lange es kein Update für die Steuersoftware gibt, muss auch das Betriebssystem nicht auf dem neuesten Stand sein, ausser es gibt ein konkretes Software-Problem.

    An einem funktionierenden System, soll man bekanntlich nichts ändern.

    Eigentlich gibt es keine technische Notwendigkeit, dass eine Steuerung weltweit über das Netzwerk erreichbar sein muss!

    Ich hatte Kunden, welche PC-basierte (DOS) Steuerungen über 15 Jahre unverändert in Betrieb hatten. Der PC musste dabei aber ein paar mal ausgetauscht werden. Das Aus kam dann, weil wir ISA-Karten eingesetzt hatten und dann keine PCs mit ISA-Bus mehr erhältlich waren. Da musste der Kunde dann auf das neue System umsteigen.

    MfG Peter(TOO)
    Manchmal frage ich mich, wieso meine Generation Geräte ohne Simulation entwickeln konnte?

  3. #3
    SPSAmeise
    Gast
    Zitat Zitat von Peter(TOO) Beitrag anzeigen
    Hallo

    Mensch - Maschine ist weniger ein technologisches Problem, sondern ein ergonomisches!
    Das würde ich so nicht unbedingt sagen, denn die Industrie hat ja leider auch bedingt durch Probleme und Unfälle dazu gelernt und daraufhin technisch nachgebessert.
    Die Frage ist nur wie man in der Vergangenheit mit Produktionsfehlern und Unfallstatistiken allgemein umgegangen ist und ob die Ursachen hier immer transparent kommuniziert wurden.


    Leider wird hier, vermutlich aus Unwissenheit, vieles an der Realität vorbei programmiert. Eigentlich sollten die verantwortlichen Entwickler so 1 bis 2 Tage vor Ort verbringen und etwas mitarbeiten um zu sehen was für die Arbeitsabläufe wichtig ist.
    Die Praxis mag anders aussehen, und nicht immer so Gewissenhaft und zuverlässig sein wie Du es beschreibst, aber das gehört für mich bereits zur Aufgabe und den Pflichten von QM sowie des Top Managements,
    um genau solche Abläufe sicher zu stellen. Der Entwickler selbst kann hier nur Feedback geben, aber die Servicequalität und Richtlinien sollten schon von anderer Stelle konsequent kontrolliert werden.

    Das was Du hier beschrieben hast, ist also bereits ein wichtiger Standard für Qualität und Kundenservice und wer das nicht durchsetzt, arbeitet für mein Verständnis einfach nicht professionell und spart leider auch mal wieder an der falschen Stelle.

    Das Problem beginnt schon damit, dass die Steuerung überhaupt von ausserhalb des Hauses erreichbar ist. Argument ist meistens die Fernwartung, nur ist ein Zugriff von Aussen meistens höchst gefährlich! Ich will gar nicht wissen, was alles passieren kann, wenn ich bei laufender Maschine ein Firmware-Update mache!
    Das ist kein Problem, sondern eine Option von der Kunden kein Gebrauch machen müssen.
    Die Sicherheit beginnt bereits beim Personal mit Verantwortung, und nicht erst bei der Netzwerktechnik.
    Die Vorstellung das ein Servicetechniker mal eben Vollzugriff von extern bekommt, ohne Zwischenschicht und keinerlei Kompetenzen vor Ort, halte ich für sehr unrealistisch.

    Nur weil man technische Möglichkeiten bietet, heisst das noch lange nicht, dass man keine Sicherheitsrelevanten Entscheidungen in der IT mehr treffen wird.

    Der andere Punkt ist, wenn jemand auch nur lesend auf Daten zugreifen kann, er jede Menge erfährt, was ihn nichts angeht.
    Klar, dass haben Produktivsysteme mit sensiblen Kundendaten so an sich, und ist für Support und Wartungsfälle immer schon ein Risiko gewesen, egal in welcher Branche.
    Die meisten Probleme lassen sich aber bereits vorher lösen indem man in eine flexible Sandbox und Testlabs mit Kundennahen Simulationen investiert.
    Das ist für die Reproduktion von Fehlern in der Industrie sogar einfacher als in der IT, weil man genau weiss mit welcher Hard und Software man es zutun hat und nicht erst lange raten muss

    Für eine gute Testabdeckung und Testlabs muss man allerdings auch viel mehr Geld in die Hand nehmen, ob das immer der Fall ist wage ich stark zu bezweifeln, vorallem beim Mittelstand.

    Eigentlich gibt es keine technische Notwendigkeit, dass eine Steuerung weltweit über das Netzwerk erreichbar sein muss!
    Man sollte sich hier allerdings nicht in Szenarien reinsteigern, die so auch garnicht umgesetzt werden können.
    Denn bei der Vernetzung geht es den meisten Unternehmen weniger um die direkte Steuerung , sondern viel mehr um bessere Analysemöglichkeiten auf Basis
    von Sensordaten und mehr Details über Abläufe zu erfahren um effizienter und sicherer zu produzieren, Stichwort Data Science, Predictive Analytics , predictive maintenance etc..

    Aus Sicherheitsgründen wird es in Zukunft nicht immer einen Live Zugriff geben, dass macht vielleicht Sinn wenn man an mehreren Standorten produziert, aber selbst dann wird
    es immer isolierte Schichten geben, auf denen zum Beispiel ein Update wartet, dass vor Ort aber erstmal synchronisert und wahrscheinlich in einer isolierten Testumgebung überprüft werden würde.

    Sicher kann man die Schichten hacken auf der Updates liegen, und dort einen Virus einspielen etc.., aber deshalb hat man noch lange kein Zugriff auf das Netzwerk der Produktion.
    Das lässt sich mit einer Cloud vergleichen, mal angenommen der Zugang eines Kunden der Amazon Cloud würde gehackt, dann hätte der jenige zwar Zugriff auf einen Bereich innerhalb der Cloud,
    allerdings hat man dadurch noch lange kein Zugriff auf das Datacenter des Cloud providers.

  4. #4
    SPSAmeise
    Gast
    Zitat Zitat von Peter(TOO) Beitrag anzeigen


    Das habe ich auch nicht gemacht!
    Aber als Entwickler kann ich das Interface so gestallten, dass es IN den Ablauf passt!
    Das ist klar, aber Du sagtest auch das allgemein vieles an der Realität vorbei programmiert sei und das verantwortliche Entwickler 1 bis 2 Tage vor Ort verbringen sollten um zu sehen was für die Arbeitsabläufe wichtig ist.
    Dies mag unsere Erwartungshaltung sein, ist aber eben kein Standard und kann je nach Kundenlösung nicht nur enorm hohen Aufwand bedeuten sondern auch zum ernsten Problem werden.

    Und da wären wir doch beim Kernthema von Industrie 4.0.

    Für Kundenanforderungen waren bisher immer individuelle Einzellösungen in einem geschlossenen System erforderlich,
    was allerdings sehr teuer und technisch nicht immer ganz trivial ist.

    Da die Industrie schon länger die mangelnde Interoperabilität in der Robotik beklagt, muss sie auch innovativ voran gehen indem sie bereit ist langfristig neue globale Kommunikations und Datenstandards zu definieren
    und dazu gehört nunmal auch die "verteufelte" IT Vernetzung.

Seite 2 von 2 ErsteErste 12

Ähnliche Themen

  1. Tesla Elektroautos - Der Schrecken der Auto-Industrie
    Von Roboternetz-News im Forum Neuigkeiten / Technik-News / Nachrichten / Aktuelles
    Antworten: 0
    Letzter Beitrag: 07.08.2015, 12:00
  2. Sicher produzieren in der Industrie 4.0
    Von Roboternetz-News im Forum Neuigkeiten / Technik-News / Nachrichten / Aktuelles
    Antworten: 0
    Letzter Beitrag: 02.02.2015, 08:50
  3. Hannover Messe 2013: Kooperative Robotik in der Industrie
    Von Roboternetz-News im Forum Neuigkeiten / Technik-News / Nachrichten / Aktuelles
    Antworten: 0
    Letzter Beitrag: 18.03.2013, 11:40
  4. Industrie-Roboter mit Gefühl
    Von erik_wolfram im Forum Sensoren / Sensorik
    Antworten: 14
    Letzter Beitrag: 25.01.2011, 14:07
  5. Welche Mikrokontroller werden in Industrie verwendet?
    Von Sheridan im Forum Allgemeines zum Thema Roboter / Modellbau
    Antworten: 11
    Letzter Beitrag: 04.10.2006, 12:24

Stichworte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  

12V Akku bauen