Informations- und Kommunikationstechniken

시작하기. 무료입니다
또는 회원 가입 e메일 주소
Informations- und Kommunikationstechniken 저자: Mind Map: Informations- und Kommunikationstechniken

1. übergreifende IT-Systeme

1.1. Wissensmanagement internes WIKI

1.1.1. Content-Manager sind verantwortlich für den Content auf einer Website. Die Aufgaben eines Content-Managers umfassen das strategische Planen und Erstellen von digitalen Inhalten sowie das Einpflegen von Content in ein Content-Management-System (CMS). Inhalte können auf Aktualität geprüft und ggfls. angepasst oder gelöscht werden.

1.1.2. Erfahrungsaustausch zwischen den Mitarbeitern (lebende Organisation) Schnelleres Einarbeiten neuer Mitarbeiter

1.2. MIS (Management-Information-System) - Flugzeugcockpit

1.2.1. Software, die beliebige Kennzahlen und Messwerte darstellen kann, die Inhalte sind je nach Anforderung und Bedürfnis der Managementebene variabel, greift auf Daten des ERP Systems zu. Die Auswertung und Darstellung erfolgt eher auf dem Low-Level-Format (ohne Spezifika)

1.2.2. Verknüpfung BSC

1.3. Lastenhefte als Anforderung des Kunden - Pflichtenheft als Leistungsverzeichnis des AN

1.3.1. Inhalt Lastenheft:

1.3.1.1. Definition Lastenheft nach DIN 69901-5 Projekteinführung: Zieldefinition, Projektblauf, die Terminplanung, grobe Kostenvorstellung für das Projekt Beschreibung des Ist-Zustands: Zusammenfassung der aktuellen Situation und Gegenbenheiten, sowie Darstellung von Problemen Beschreibung des Soll-Zustands: Erläuterung welche Ziele erreicht werden sollen und wie. Definition von Schnittstellen und Zuständigkeiten: Überblick über Ansprechpartner und Projektverantwortliche, sowie über benötigte Schnittstellen und Kommunikationswege Anforderungen: Genaue Beschreibung aller funktionalen und technischen Anforderungen

1.3.2. Inhalt Pflichtenheft

1.3.2.1. Genaue Zieldefinition aus Sicht der ANs Konzept und Rahmenbedingungen wie Schnittstellen, Qualität, genaue Rahmenparameter (z.b. Temperatur), Kompatibilität Übersicht Terminplan inkl. Meilensteine Beschreibung von Wechselwirkungen und Risiken Anforderungen an die technischen Strukturen beim Kunden

1.4. Softwareergonomie - Die Lehre von der Anpassung der Arbeitsbedingungen an den Menschen. Nutzer müssen mit der Anwendung zurecht kommen - farbliche Gestaltung, auch Lesbarkeit der Daten sind wichtig, Barrierefreiheit, logischer Prozessablauf - intuitiv

1.4.1. freundliche Sprache

1.4.2. Förderung der Motivation ud Kreativität

1.4.3. Erleichterung des Erlernens des Programms

1.4.4. minimieren von Fehlern (z.b. durch ungültige Eingaben)

1.4.5. Selbsterklärend

1.4.6. Ein-Ausgabe,- Dialoggestaltung

1.4.7. Fehlerrobustheit

1.4.8. DIN iso 9241

1.4.8.1. Selbsterklärbarkeit

1.4.8.2. Fehlertoleranz

1.4.8.3. Selbstlernbarkeit

1.4.8.4. Erleichterung Flow

1.5. IT-Systeme, Anwendersoftware einführen - Probleme berücksichtigen (Hasta - Multiplikatoren eingesetzt um Wissen zu generieren und zu verbreiten)

1.5.1. Bedarfsanalyse: Identifiziere die Anforderungen des Unternehmens und der Benutzer, um sicherz ustellen, dass die neue Softwar e deren Bedürfnisse erfüllt. Dies be inhaltet oft die Durchführung von Interviews mit releva nten Stakeholdern.

1.5.2. Auswahl der Software: Basierend auf de n identifizierten Anford erungen und Budget beschränkungen wähle eine geeign ete Software aus. Dies kann den Ve rgleich verschiedener Option en, Demos und Evaluierungen beinhalten.

1.5.3. Pilotphase: Bevor die Software im ge samten Unternehmen einge führt wird, führe eine Pilot phase durch, in der die Softw are in einer kleinen Gruppe von B enutzern getestet wird. Dies ermög licht es, eventuelle Probleme frühz eitig zu identifizieren und zu beheben.

1.5.4. Planung und Vorbereitung: Entw ickle einen detaillierten Impl ementierungsplan, der Zeit rahmen, Ressourcen, Schu lungsbedarf, Komm unikationsstrategien und Zust ändigkeiten festlegt.

1.5.5. Schulung und Weiterbildung: Biet e Schulungen und Weit erbildungen für Mitarbeiter an, dami t sie sich mit der neuen Soft ware vertraut machen können. Dies kann sowohl vor als auch währ end der Implementierung erfo lgen.

1.5.6. Datenmigration: Wenn Daten aus alten Systemen in die neue Sof tware übertragen werden müs sen, führe eine sorgfältige Dat enmigration durch, um sic herzustellen, dass keine Daten ver loren gehen oder beschädigt wer den.

1.5.7. Implementierung: Führe die Sof tware in der gesamten Organisation schrittweise oder auf ei nmal ein, abhängig von der Ko mplexität und den An forderungen des Unternehmens.

1.5.8. Überwachung und Support: Üb erwache die Leistung der So ftware nach der Im plementierung und biete ko ntinuierlichen Support, um auftretende Probleme zu lösen und s icherzustellen, dass die Software e ffektiv genutzt wird.

1.5.9. Feedback sammeln: Sammle k ontinuierlich Feedback von B enutzern, um V erbesserungspotenzial zu i dentifizieren und die Software e ntsprechend anzupassen.

1.6. CMS - Compliance-Management-System

1.6.1. Compliance bedeutet Gehorsam - wir beachten die Gesetze. Ein Compliance-Management-System (CMS) ist eine organisatorische Struktur, die Unternehmen dabei unterstützt, sicherzustellen, dass sie alle relevanten Gesetze, Vorschriften, Richtlinien und interne Standards einhalten. Das Hauptziel eines Compliance-Management-Systems besteht darin, die Einhaltung von rechtlichen und regulatorischen Anforderungen sicherzustellen, um rechtliche Risiken zu minimieren und das Vertrauen der Stakeholder, einschließlich Kunden, Investoren und Aufsichtsbehörden, zu gewinnen und zu erhalten.

1.6.1.1. Hier sind einige der allgemeinen Ziele eines Compliance-Management-Systems: Einhaltung gesetzlicher Anforderungen: Gewährleistung, dass das Unternehmen alle relevanten Gesetze und Vorschriften in den Bereichen, in denen es tätig ist, befolgt. Risikominimierung: Identifizierung, Bewertung und Management von Risiken, die aus möglichen Nichteinhaltungen resultieren könnten, um rechtliche und finanzielle Konsequenzen zu vermeiden. Schaffung von Transparenz: Bereitstellung von klaren und transparenten Richtlinien, Verfahren und Prozessen, um ein Verständnis für die Compliance-Anforderungen im gesamten Unternehmen zu fördern. Verhaltensstandards fördern: Förderung ethischen Verhaltens und die Einhaltung interner Verhaltensstandards, um die Integrität des Unternehmens zu wahren. Schulung und Sensibilisierung: Schulung der Mitarbeiter über die relevanten Compliance-Richtlinien und -verfahren, um sicherzustellen, dass das Bewusstsein für die Einhaltung im gesamten Unternehmen vorhanden ist. Frühzeitige Erkennung und Reaktion: Implementierung von Mechanismen zur frühzeitigen Erkennung von Non-Compliance und die Entwicklung von angemessenen Reaktionsmechanismen, um Probleme zu beheben. Dokumentation und Berichterstattung: Aufrechterhaltung von genauen Aufzeichnungen über Compliance-Aktivitäten und die Erstellung von Berichten für interne und externe Stakeholder sowie für Aufsichtsbehörden.

1.6.1.1.1. Schnittstelle zu ISO9001 und IMS

1.7. content management system

1.8. ERP-System

1.8.1. Vertrieb

1.8.2. Produktion

1.8.3. Beschaffung

1.8.4. Controlling

1.8.5. CRM

1.8.5.1. Software für Kundenbeziehungen

1.8.6. Personalwesen

1.8.7. REWE und Finanzen

1.8.8. Marketing

1.9. (Teil eines ERP-Systems) Work-Flow-Management: zu deutsch Arbeitsablaufverwaltung. Die informationstechnische Unterstützung oder teilweise Automatisierung von Arbeitsabläufen. Bei jedem Dienst oder Verrichtung werden vor jeder Aktion zuerst die Bedingungen geprüft, erkannt und erfüllt. Somit sind Worklflows nichts anderes als Netzpläne in dem die Elemente sequentiell verkettet werden. Ein Workflow ist ein Arbeitsablauf, der aus einzelnen Aktivitäten aufgebaut ist. Ziele: Die Qualität der unterstützten Prozesse soll verbessert werden. Prozesse sollen vereinheitlicht werden, die Durchlaufzeiten und damit die Kosten sollen reduziert werden, Erhöhung der Transparenz (Statusermittlung, Dokumentation von Entscheidungen) Kritik: Starre Vorgaben sind ungeeignet um einen tatsächlichen Fluss der Arbeit zu bewirken, Mitarbeiter verlieren Ihre Motivation mangels Eigenverantwortung, wenn sie sich nur noch an vorgegebene Workflows halten sollen; wenn das Management Mitarbeiter nur noc als Resourcen zur Mengenerfüllung sieht, geht der Kontakt zwischen Leitungsinstanz und Mitarbeitern verloren. Workflows müssen von Mitarbeitern erstellt werden können, d.h. die Oberfläche muss verständlich sein. Prozesse können so überwacht und verbessert werden (Kundenrückmeldung steht wochenlang aus). Schnittstellen zu anderen Systemen, z.b Zugriff auf andere Pläne, die im Prozess wichtig sind. Wo wird das Tool gehostet? USA EU Datenschutzprobleme

2. Datensicherung, Datenschutz, Datenschutzrecht

2.1. Risikoreduktion

2.1.1. Risiken allgemein

2.1.1.1. Der Mensch - Fehlverhalten, Missachtung der Policies

2.1.1.2. Malware / Ransomeware/Würmer/Trojaner

2.1.1.3. Phishing Mails

2.1.1.4. Datenverlust durch technisches Versagen, Brand, Überflutung...

2.1.2. Sensibilisierungen für Mitarbeiter

2.1.2.1. Kurse für die IT-Sensibilisierung, z.B. Umgang mit Daten - USB-Stick kann verloren gehen, Bit Locker

2.1.3. Baulicher Schutz von Serverräumen

2.1.3.1. Personenschleusen in Rechenzentren - verhindert Tailgaiting

2.1.3.2. Räume ohne Fenster

2.1.3.3. Türen mit Zutrittskontrolle

2.1.3.4. EMA / Video auf ständig besetzte Zentrale

2.1.3.5. Brandmeldeanlage, Gaslöschanlage

2.1.3.6. USV

2.1.3.7. Aber auch Naturkatastrophen berücksichtigen (Pumpensumpf, hoch gelegen, entsprechende Wassermelder,...)

2.1.4. Passwortrichtlinien

2.1.4.1. Besitz und Wissen

2.1.4.2. Groß-/Kleinschreibung, Sonderzeichen

2.1.4.3. intervallmäßiges ändern von Passwortern

2.1.5. regelmäßige Softwareupdates / regelmäßige Firmwareupdates

2.1.6. weitere

2.1.6.1. Multfaktorauthenifizierung mit TAN oder SMS: Dieses Verfahren ist sehr sicher, aber es bringt einen erheblichen Mehraufwandfür den Benutzer mit sich und ist zur Authenifizierung nicht geeignet Biometrische Verfahren (hnss-Scan, Fingerabdruck usw.X Diese Verfahren sind sehr sicher. Die XYZ Hokling AG müsste ermalig in Fingerab druckscamer investieren, danach ist das Verfahren für den Standardnutzer zur Authenthifizierung geeignet. One- Tme-Password: Das Passwort verliert nach der Benutzung seine Gültigkeit. Die Sicherheit ist hoch. Zur regelmäßigen Authentifzierung Ist das Verfahren nicht geeignet.Es wirdin der Regel bei der Zweifachauihentfizierung singesetzt. Smart Cards: Smart Cands sind grundsätzlich sehr sicher zur Authentifizierung. Es besteht allerdings‘ das Risiko, dass die SmartCard verloren geht oder auch weitergegeben wird Hardware-Based USB Key (Token): Grundsätzlich ist ein USB Key sehr sicher. Wie bei der Smart Card besteht das Risiko, dass der USB Key verloren geht oder auch weitergegeben wird.

2.1.6.2. Es gibt nciht DIE eine Lösung, es ist immer eine Kombination von Mitteln und Methoden, die die Sicherheit erhöhen

2.1.7. Einsatz von VPN / Virenschutzprogramme

2.1.7.1. Verbindung wird über eine spezielle Software zwischen Client und Server verschlüsselt. Authentifizierung ist nötig, z.b. Token oder Smartcard

2.2. Signaturverfahren / Verschlüsselungstechnicken:

2.2.1. Ziele: Vertraulichkeit wahren Integrität und Authentizität Nichtabstreitbarkeit Die Daten sollen für dritte ohne den Schlüssel nicht lesbar sein, und die Signatur bestätigt die Echtheit

2.2.1.1. Symmetrische Verschlüsselung

2.2.1.1.1. Beide seiten nutzen den selben Schlüssel, der vorher ausgetauscht werden muss (über ein anderes Medium, z.b. per USB Stick)

2.2.1.2. Asymmetrische Verschlüsselung

2.2.1.2.1. unterschiedliche, gleich lange, aber mathematisch zusammenhängende Schlüssel werden ausgestauscht. Ein sog. private und public Key. Mit den Informationen aus dem public Key wird die Nachricht vom Sender verschlüsselt und dann mit dem private Key beim Empfänger entschlüsselt.

2.2.1.3. hybrides Verfahren

2.2.1.3.1. beide Verfahren werden kombiniert,

2.2.1.4. einfache Signatur

2.2.1.5. fortgeschrittene Signatur

2.2.1.5.1. entspricht nicht nach dem SigG annerkannte Vergabestelle, sondern basiert "nur" auf dem Zwei-Schlüssel-Verfahren

2.2.1.6. qualifizierte Signatur rechtssicher, durch Pin Eingabe und separatem Kartenlesegerät. Der private Key muss von einem autorisierten Trustcenter / Vergabestelle stammen

2.2.1.6.1. New node

2.3. technische Datensicherung

2.3.1. Backup in externem RZ / Cloud

2.3.2. Sicherung auf externe Datenträger

2.3.3. RAID-Systeme (1,5,6 und 10)

2.3.4. Inkrementelles und Differentielles Backup: Inkrement (immer +1) sichert die Unterschiede zum vorherigen Backup, also Montag - Dienstag - Mittwoch usw. Differentiell sichert immer den Unterschied zum letzten Vollbackup (also Montag, dann Montag plus Dienstag usw.) Differentiell braucht mehr ist aber schneller in der Widerherstellung, Inkremtiell benötigt weniger Speicherplatz ist aber langsamer.

2.4. Datenschutzgesetze

2.4.1. DSGVO

2.4.1.1. Art 30: Verzeichnis Verabeitungstätigkeiten

2.4.1.1.1. Nachweis (Logbuch) wann und zu welchem Zweck die Daten verabeitet werden. Z.B. Buchhaltung zur Rechnungserstellung, Vertrieb zur Kundenaquise, HR zur Personalverwaltung

2.4.1.2. Art. 13 und 14 Informationspflicht

2.4.1.2.1. Der Nutzer muss darauf hingewiesen werden, wer die Daten wo wann wofür und Zweck verwendet (Ähnliches Muster wie Art 30), Nutzer wird erklärt, welche Rechte er hat (z.B. Aufsichtsbehörde)

2.4.1.3. Art 28 und 29 Auftragsverarbeitung

2.4.1.3.1. Auftragsverarbeiter müssen die selben Regeln befolgen, wir geben vor, wie er die Daten verabeitet

2.4.1.4. Datenschutzkonforme Webseite

2.4.1.4.1. https-Verschlüsselt, Plug-In´s welche die Daten Ermitteln

2.4.1.5. Prozesse

2.4.1.5.1. Art 15-22 Betroffenenrechte

2.4.1.5.2. Art 33 und 34 Datenschutzvorfälle

2.4.1.6. Datenschutzbeauftragter

2.4.1.6.1. DSGVO Art 37 und §38 BSDG

2.4.1.7. Art 29 Mitarbeiterverpflichtung

2.4.1.7.1. schriftlich hinweisen

2.4.2. BDSG

2.4.2.1. regelt die nationalen Anforderung / Strafen

3. Software allgemein

3.1. Vorteile Standardsoftware

3.1.1. wenig Schulungsaufwand

3.1.2. ständige Updates und Weiterentwicklung vom Hersteller

3.1.3. branchenspezifische Lösungen bereits vorhanden

3.1.4. deckt einen Großteil der Anforderungen bereits ab

3.1.5. schnellere Verfügbarkeit und Implementierung durch bewährte Routinen

3.2. Vorteile Customizing

3.2.1. Anpassung an spezielle Bedürfnisse

3.2.2. Spezielle Prozessabläufe

4. Grundlegend

4.1. IT muss immer verfügbar sein -> sonst große Verluste durch Imageverlust und Kundenverlust

4.2. Daten müssen integer sein

4.3. Authentizität der Daten muss gewährleistet sein.

4.4. Vertraulichkeit muss gegeben sein

4.5. Gefährdung durch Mensch, technisches Versagen, höhere Gewalt

5. Data-Mining

5.1. Data-Mining im Umfeld von produzierenden Unternehmen bezieht sich auf die Anwendung von Datenanalysetechniken, um wertvolle Informationen und Muster aus großen Mengen von Produktionsdaten zu extrahieren. Dieser Ansatz kann dazu beitragen, Einblicke in verschiedene Aspekte der Produktion zu gewinnen und operative Prozesse zu optimieren. Hier sind einige Aspekte, wie Data-Mining in produzierenden Unternehmen genutzt werden kann: Qualitätskontrolle: Durch Analyse von Produktionsdaten können Muster identifiziert werden, die auf Qualitätsprobleme hinweisen. Dies ermöglicht eine frühzeitige Intervention, um Ausschussproduktion zu reduzieren und die Produktqualität zu verbessern. Wartungsmanagement: Data-Mining kann eingesetzt werden, um Muster in den Daten von Maschinen und Ausrüstungen zu erkennen, die auf bevorstehende Ausfälle oder Wartungsbedarf hindeuten. Dies ermöglicht eine vorausschauende Wartung, die ungeplante Stillstände minimiert. Optimierung der Produktion: Durch die Analyse von Produktionsdaten können ineffiziente Prozesse erkannt und optimiert werden. Dies trägt dazu bei, die Gesamtproduktivität zu steigern und die Betriebskosten zu senken. Bestandsmanagement: Data-Mining kann dazu genutzt werden, die Nachfragevorhersage zu verbessern und so das Bestandsmanagement zu optimieren. Dies reduziert Lagerkosten und vermeidet Überbestände oder Engpässe. Lieferkettenoptimierung: Die Analyse von Daten entlang der Lieferkette hilft dabei, Engpässe zu identifizieren, Lieferzeiten zu verkürzen und die Effizienz in der gesamten Lieferkette zu steigern. Energiemanagement: Data-Mining kann eingesetzt werden, um den Energieverbrauch in der Produktion zu überwachen und zu optimieren, was zu Kosteneinsparungen und einer verbesserten Umweltbilanz führt. Um Data-Mining in produzierenden Unternehmen erfolgreich umzusetzen, ist eine umfassende Dateninfrastruktur sowie fortgeschrittene Analysemethoden notwendig. Dies kann auch die Integration von maschinellem Lernen und Künstlicher Intelligenz (KI) umfassen, um komplexe Muster und Vorhersagen zu generieren.

5.1.1. Schnittstelle zum Energiemarkt. Bessere Vorhersage, besserer Einkauf von Energie (Strommarkt Mittelspannung) - jeder Mehr- oder Minderbezug kostet zusätzliches Geld

5.1.2. Ein OLAP-Würfel (Online Analytical Processing) ist eine multidimensionale Datenstruktur, die es Benutzern ermöglicht, komplexe Datenanalysen durchzuführen. Der Begriff "Würfel" bezieht sich auf die multidimensionale Natur der Daten, die in Form eines "Würfels" oder einer Hypercube-Struktur organisiert sind. OLAP-Würfel werden häufig in Business Intelligence (BI)-Systemen eingesetzt, um Daten aus verschiedenen Perspektiven zu analysieren und Einblicke in die Leistung und Trends eines Unternehmens zu gewinnen. Ein OLAP-Würfel besteht aus mehreren Dimensionen, die die verschiedenen Attribute der analysierten Daten darstellen. Die häufigsten Dimensionen sind Zeit, Produkt, Ort und Kunde, aber je nach den Anforderungen einer Analyse können weitere Dimensionen hinzugefügt werden. Jede Dimension enthält hierarchisch strukturierte Attribute. Zum Beispiel kann die Dimension "Zeit" Attribute wie Jahr, Quartal, Monat und Tag enthalten. Die Daten im OLAP-Würfel werden in Fakten (auch als Kennzahlen oder Metriken bezeichnet) organisiert, die die zu analysierenden numerischen Werte darstellen. Diese Fakten sind in den Zellen des Würfels gespeichert, wobei jede Zelle eine eindeutigen Kombination von Attributwerten aus den verschiedenen Dimensionen entspricht. OLAP-Würfel ermöglichen es Benutzern, Daten auf verschiedene Weise zu analysieren, einschließlich Drill-Down (Detailansicht von aggregierten Daten), Roll-Up (Aggregation von Detaildaten auf höhere Ebenen), Slicing (Filtern von Daten entlang einer Dimension), Dicing (Auswählen von Teilmengen von Daten) und Pivotieren (Ändern der Achsenanordnung des Würfels). Diese interaktiven Analysemöglichkeiten bieten Benutzern die Flexibilität, Daten aus verschiedenen Blickwinkeln zu betrachten und Zusammenhänge zu erkennen, die in herkömmlichen tabellarischen Datenstrukturen möglicherweise nicht offensichtlich sind

5.2. .Data Mining im Umfeld eines Unternehmens bezieht sich auf den Prozess der Extraktion von relevanten, bisher unbekannten Informationen aus großen Mengen von Daten. Es ist ein Teilbereich von Data Science, der fortschrittliche statistische und maschinelle Lernmethoden nutzt, um Muster, Trends und Erkenntnisse aus Unternehmensdaten zu identifizieren. Der Zweck von Data Mining besteht darin, versteckte Informationen aufzudecken, um fundierte Entscheidungen zu treffen, Prognosen zu erstellen und Geschäftsprozesse zu optimieren. Hier sind einige Schlüsselaspekte von Data Mining im Unternehmensumfeld: Datenquellen: Unternehmen sammeln Daten aus verschiedenen Quellen, darunter Kundentransaktionen, soziale Medien, Website-Aktivitäten, Logdateien und mehr. Diese Daten werden in Datenbanken oder Data Warehouses gespeichert. Datenvorbereitung: Bevor der eigentliche Data-Mining-Prozess beginnt, müssen die Daten vorbereitet werden. Das beinhaltet das Bereinigen von Daten, die Behandlung von fehlenden Werten, die Normalisierung und Transformation von Daten, um sie für Analysen vorzubereiten. Algorithmen und Modelle: Data Mining verwendet verschiedene Algorithmen und Modelle, um Muster und Beziehungen in den Daten zu finden. Das können zum Beispiel Entscheidungsbäume, neuronale Netze, Cluster-Analysen oder Assoziationsregeln sein. Anwendungen: Die Anwendungen von Data Mining im Unternehmenskontext sind vielfältig. Dazu gehören Kundensegmentierung, Vorhersage von Verkaufstrends, Identifizierung von Betrug, Optimierung von Marketingstrategien, Personalmanagement und vieles mehr. Geschäftsentscheidungen: Die aus dem Data Mining gewonnenen Erkenntnisse beeinflussen Geschäftsentscheidungen. Unternehmen können datenbasierte Entscheidungen treffen, um ihre Effizienz zu steigern, Kosten zu senken, Kunden besser zu verstehen und ihre Wettbewerbsfähigkeit zu verbessern. Data Mining spielt eine entscheidende Rolle in der heutigen datengetriebenen Geschäftswelt und ist ein wesentliches Instrument, um aus großen Datenmengen wertvolle Informationen zu extrahieren, die für den Geschäftserfolg von Bedeutung sind.

6. Kommunikationsnetze

6.1. Peer to Peer Netzwerk

6.1.1. P2P-Konzept: Sehr kleine Netze, alle Clients sind gleichwertig im Rang, schnell, günstig ohne DHCP, Freigaben ip basiert (Druckerfreigabe), Anderer client mit Verbindung zum Internet, Verbindung (physisch) über Direktverbindung oder über Switch / Hub (ip möglich)

6.2. DNS

6.2.1. Übersetzt auf der Layer 4 und 5 zwischen Klarname und ip adresse, Wie ein Telefonbuch im Internet, Aus Domainname wird IP-Adresse. www.google.de (Top-level, Second-Level, Subdomain)

6.3. Client-Server-Modell Der Server (Diener) stellt dem Client Resourcen zur Verfügung, meistens Speicherplatz oder Anwendungsprogramme und Datenbanken oder Dienste wie Druckserver, Fileserver,...

7. Authentisierung vs. Authentifizierung vs. Autorisierung Essenzielle Bestandteile eines Anmeldevorgangs. In der Praxis werden besonders Authentisierung und Authentifizierung häufig synonym verwendet, da sie Teil desselben Vorgangs zur Benutzung an IT-Systeme sind. Dabei ist die Unterscheidung besonders bei der Dokumentation von IT-Prozessen wichtig. Schritt 1 – die Authentisierung Die Authentisierung bezeichnet das Vorlegen eines Nachweises für die Identität des Nutzers gegenüber dem IT-System oder der IT-Ressource, an der er sich anmelden möchte. Dieser Nachweis kann in verschiedenen Formen erfolgen, wie beispielsweise durch eine Information, die nur der Nutzer kennt (Passwort, PIN), etwas, was er ist (Fingerabdruck, Iris-Scanner), etwas, das er besitzt (Smartcard, Token, Badge) oder einer Kombination der Genannten. Die Authentisierung ist also die aktive Handlung des Nutzers bei der Anmeldung, in der er seine Identität mit einem Nachweis behauptet. Schritt 2 – die Authentifizierung Die Authentifizierung bezeichnet das Vorgehen zur Überprüfung der Behauptung der Identität und dessen Ergebnis, indem das IT-System diese mit den hinterlegten Informationen zur behaupteten Identität abgleicht oder eine dritte, autorisierte Stelle befragt. Somit folgt die Authentifizierung auf die Authentisierung. Schritt 3 – die Autorisierung Auf das positive Ergebnis der Authentifizierung erfolgt die „Autorisierung”, womit die Gewährung bzw. die Beschränkung auf „bestimmte Rechte“ gemeint ist. Eine erfolgreiche Authentifizierung bedeutet nicht automatisch den Zugriff auf Ressourcen im Netzwerk. Ein klassisches Beispiel hierfür ist das Abheben von Bargeld an einem Bankautomaten. Der Kunde authentisiert sich mit seiner Kombination aus EC-Karte (etwas, was er besitzt) und seiner PIN (etwas, was er weiß). Der Bankautomat authentifiziert den Kunden, bei Übereinstimmung der Informationen, als den rechtmäßigen Benutzer des Bankkontos. Nun ist der Bankkunde autorisiert, einen Betrag von seinem Konto abzuheben. Bei einem Übersteigen des Limits würde der Vorgang aufgrund fehlender Autorisierung abgebrochen werden.

8. Cloud allgemein: Z.B. Software as a service

8.1. geringe Anschaffungskosten, keine Hardware

8.2. kein Aufwand bei Defekt oder Wartung

8.3. Anbieter sorgt für Speicherlösung / Backup

8.4. kein Platzbedarf für Serverräume / Energiebedarf

8.5. zentrale und schnelle Softwareupdates

8.6. Administration von überall möglich und einfach

8.7. Vergleich Schwimmbad und eigener Pool, Schwimmbad public, eigener Pool private Cloud Hybrid ist die Auslagerung von Diensten und Daten nach Bedarf und Sensibilität (z.B. Messe)

8.7.1. https://www.youtube.com/watch?v=01J24FQdXIM

8.8. Eine hybride Cloud-Lösung bezieht sich auf eine IT-Infrastruktur, die Elemente sowohl aus öffentlichen als auch aus privaten Clouds integriert, um eine gemeinsame Plattform zu schaffen. In einer hybriden Cloud werden Ressourcen und Daten zwischen der öffentlichen und privaten Cloud verschoben und gemeinsam genutzt, um eine flexible und ausgewogene Umgebung für Unternehmen zu schaffen. Hier sind einige Schlüsselmerkmale und Konzepte einer hybriden Cloud-Lösung: Öffentliche Cloud: Die öffentliche Cloud besteht aus Cloud-Diensten, die von Drittanbietern bereitgestellt und über das Internet zugänglich sind. Diese Dienste werden oft von Unternehmen genutzt, um Skalierbarkeit und Ressourcenelastizität zu gewährleisten, ohne eine eigene Infrastruktur bereitstellen zu müssen. Private Cloud: Die private Cloud ist eine dedizierte Cloud-Infrastruktur, die für eine bestimmte Organisation erstellt und betrieben wird. Sie kann in den Rechenzentren des Unternehmens oder von Drittanbietern gehostet werden. Private Clouds bieten mehr Kontrolle und Sicherheit, sind jedoch möglicherweise nicht so flexibel und skalierbar wie öffentliche Clouds. Integration und Datenmobilität: In einer hybriden Cloud können Daten und Anwendungen zwischen der öffentlichen und privaten Cloud verschoben werden, je nach den Anforderungen und Ressourcenverfügbarkeiten. Diese Integration ermöglicht es Unternehmen, ihre Workloads dynamisch zu verlagern und ihre IT-Ressourcen effizient zu nutzen. So könnte z.B. für ein neues Bauprojekt eine Plattform, wie eine Kolaborationssoftware, auf einer Cloud gehostet werden, ohne dafür eigene Hardware anschaffen zu müssen. Flexibilität und Skalierbarkeit: Die hybride Cloud bietet die Flexibilität, bestimmte Workloads in der privaten Cloud zu betreiben, während andere in die öffentliche Cloud verschoben werden können, um auf Nachfrage zu skalieren. Dies ermöglicht eine optimale Nutzung der Ressourcen und eine Anpassung an sich ändernde Geschäftsanforderungen. Sicherheit und Compliance: Durch die Integration einer privaten Cloud können Unternehmen sensible Daten und kritische Anwendungen in einer kontrollierten Umgebung behalten, während weniger kritische Workloads in der öffentlichen Cloud platziert werden können. Dies ermöglicht die Einhaltung von Sicherheitsrichtlinien und branchenspezifischen Vorschriften. Kostenoptimierung: Hybride Cloud-Lösungen ermöglichen es Unternehmen, ihre Kosten zu optimieren, indem sie nur die Ressourcen in der öffentlichen Cloud nutzen, die benötigt werden, während sie gleichzeitig die Vorteile der Skalierbarkeit und Flexibilität dieser Umgebung nutzen. Die hybride Cloud bietet Unternehmen eine Balance zwischen Kontrolle und Agilität, indem sie die Vorteile der öffentlichen und privaten Clouds kombiniert. Dies ist besonders relevant für Organisationen, die unterschiedliche Anforderungen an Datenschutz, Sicherheit und Skalierbarkeit haben.

8.9. Cloud Computing: SAAS, IAAS, HAAS. Cloud Computing bedeutet, dass die Dienste im Netz (in der Cloud) stehen und dort genutzt werden können. Bei Hardware as a service mietet der Kunde einen Server im Netz und muss sich keinen Server kaufen und betreiben. Bei Infrastucture as a service mietet der Kunde die Infrastruktur, eine Telefonanlage z.b.. Bei Software as a service kauft der Kunde (besser mietet) Software, die im Netz ausgeführt wird. Vorteile sind, einfach und schnelle Updates aller Systeme der Betreiber, keine Anschaffungskosten (kein gebundenes Kapital), kein Administrationsaufwand, entkoppelt von Energiepreisen, Systeme sind skalierbar (pay as you grow), Der Hoster kann die Dienste günstiger anbieten (weil viele Kunden, bessere Auslastung, Fixkostendegression) als wenn man das selbst baut und betreibt. Nachteile: Es muss immer eine funktionierende Internetanbindung vorhanden sein um die Dienste zu nutzen. Geht der Hoster pleite sind die Dienste weg. Die Daten sind nicht mehr im eigenen Haus, Zugriff und Zutritt ist abhängig vom Hoster. Die Kosten fallen immer an und irgendwann könnte es zu einem Break Even kommen, und die eigene Struktur wäre günstiger.

9. Maßnahmen für sichere IT

9.1. organisatorisch

9.1.1. Mitabeiter einweisen, sensibilisieren, regelmäßig

9.1.2. Passwortregelungen

9.2. technisch

9.2.1. Regelmäßige Updates und Aktualisierungen

9.2.2. Daten auf Datenträger verschlüsseln - die wichtigen Daten

9.2.3. Virenschutz

9.2.4. Zugangskontrolle / Authentifizierung am System, Nutzername / Passwort / Chipkarte / biometrie

9.2.5. Zutritts- und Zugriffsschutz

10. UCC-Software - Typische Funktionen von Kollaborationssoftware

10.1. Dokumentenfreigabe und -bearbeitung: Ermöglicht es Benutzern, Dateien zu teilen, gemeinsam zu bearbeiten und auf sie zuzugreifen.

10.2. Aufgabenverwaltung: Werden im Team / Projekt / Unternehmen Aufgaben identifiziert, wie z.B. "kick-Off Meeting planen", kann diese einer Person oder Gruppe zugewiesen werden, und mit einem Zeitstempel - zu erledigen bis - versehen werden. Kurz vor Fälligkeit oder zu einem beliebig definierbaren Zeitpunkt erinnert die Software an diese Aufgabe und deren Fälligkeit.

10.3. Kommunikationstools: Enthält Funktionen wie Messaging, Echtzeit-Chats, Videokonferenzen und Kommentare, um die Kommunikation zu erleichtern

10.4. Aufgaben- und Projektmanagement: Hilft bei der Verwaltung von Aufgaben, Projekten und Terminen, oft mit Funktionen zur Zuweisung von Aufgaben und Überwachung des Fortschritts.

10.5. Kalender und Terminplanung: Erlaubt die Organisation von Terminen, Besprechungen und anderen Ereignissen.

10.6. Datenbanken und Wissensmanagement: Unterstützt die Speicherung und den Zugriff auf relevante Informationen sowie das Teilen von Wissen im Team.

10.7. Versionskontrolle: Ermöglicht die Verfolgung von Änderungen an Dokumenten und die Wiederherstellung früherer Versionen.

10.8. Dateiverwaltung: Bietet Funktionen zur Strukturierung, Organisation und Suche von Dateien.

10.9. Beispiele für Kollaborationssoftware umfassen Plattformen wie Microsoft Teams, Slack, Google Workspace (ehemals G Suite), Asana, Trello und viele andere. Diese Tools spielen eine entscheidende Rolle bei der Förderung der Zusammenarbeit in modernen Arbeitsumgebungen, insbesondere in dezentralen oder verteilten Teams.

11. Energieeinsparung in der IT