Mindmap-Galerie System Integration Project Management Engineer 3. AuflageSoft Test SuccessKapitel 2 Entwicklung der Informationstechnologie
System Integration Project Management Engineer 3. Auflage/Soft Test Midterm/Kapitel 2 Entwicklung der Informationstechnologie Informationstechnologie ist der allgemeine Begriff für die Anwendungstechnologie zur Informationsbeschaffung, Informationsverarbeitung, Informationsübertragung und Informationsnutzung nach den Grundprinzipien und Methoden der Informationswissenschaft .
Bearbeitet um 2024-03-14 10:17:07Einhundert Jahre Einsamkeit ist das Meisterwerk von Gabriel Garcia Marquez. Die Lektüre dieses Buches beginnt mit der Klärung der Beziehungen zwischen den Figuren. Im Mittelpunkt steht die Familie Buendía, deren Wohlstand und Niedergang, interne Beziehungen und politische Kämpfe, Selbstvermischung und Wiedergeburt im Laufe von hundert Jahren erzählt werden.
Einhundert Jahre Einsamkeit ist das Meisterwerk von Gabriel Garcia Marquez. Die Lektüre dieses Buches beginnt mit der Klärung der Beziehungen zwischen den Figuren. Im Mittelpunkt steht die Familie Buendía, deren Wohlstand und Niedergang, interne Beziehungen und politische Kämpfe, Selbstvermischung und Wiedergeburt im Laufe von hundert Jahren erzählt werden.
Projektmanagement ist der Prozess der Anwendung von Fachwissen, Fähigkeiten, Werkzeugen und Methoden auf die Projektaktivitäten, so dass das Projekt die festgelegten Anforderungen und Erwartungen im Rahmen der begrenzten Ressourcen erreichen oder übertreffen kann. Dieses Diagramm bietet einen umfassenden Überblick über die 8 Komponenten des Projektmanagementprozesses und kann als generische Vorlage verwendet werden.
Einhundert Jahre Einsamkeit ist das Meisterwerk von Gabriel Garcia Marquez. Die Lektüre dieses Buches beginnt mit der Klärung der Beziehungen zwischen den Figuren. Im Mittelpunkt steht die Familie Buendía, deren Wohlstand und Niedergang, interne Beziehungen und politische Kämpfe, Selbstvermischung und Wiedergeburt im Laufe von hundert Jahren erzählt werden.
Einhundert Jahre Einsamkeit ist das Meisterwerk von Gabriel Garcia Marquez. Die Lektüre dieses Buches beginnt mit der Klärung der Beziehungen zwischen den Figuren. Im Mittelpunkt steht die Familie Buendía, deren Wohlstand und Niedergang, interne Beziehungen und politische Kämpfe, Selbstvermischung und Wiedergeburt im Laufe von hundert Jahren erzählt werden.
Projektmanagement ist der Prozess der Anwendung von Fachwissen, Fähigkeiten, Werkzeugen und Methoden auf die Projektaktivitäten, so dass das Projekt die festgelegten Anforderungen und Erwartungen im Rahmen der begrenzten Ressourcen erreichen oder übertreffen kann. Dieses Diagramm bietet einen umfassenden Überblick über die 8 Komponenten des Projektmanagementprozesses und kann als generische Vorlage verwendet werden.
Entwicklung der Informationstechnologie
一、 Zusammenfassung
Informationstechnologie ist ein allgemeiner Begriff für angewandte Technologien, die Informationen erfassen, Informationen verarbeiten, Informationen übertragen und Informationen gemäß den Grundprinzipien und Methoden der Informationswissenschaft nutzen.
Informationstechnologie ist ein Mittel zur Informatisierung und die Grundlage für den Aufbau von Informationssystemen.
Die neue Generation der Informationstechnologie hat sich zu einer strategischen Branche entwickelt, in die Länder auf der ganzen Welt investieren und deren Entwicklung im Mittelpunkt steht.
二、 Informationstechnologie und ihre Entwicklung
i. Zusammenfassung
Informationstechnologie entsteht durch die Kombination von Computertechnologie und Telekommunikationstechnologie auf Basis der Mikroelektronik. Sie erfasst, verarbeitet, speichert und speichert Ton-, Bild-, Text-, Digital- und verschiedene Sensorsignalinformationen.
Je nach Ausdrucksform kann die Informationstechnologie in harte Technologie (materialisierte Technologie) und weiche Technologie (nicht materialisierte Technologie) unterteilt werden. Ersteres bezieht sich auf verschiedene Informationsgeräte und deren Funktionen, wie zum Beispiel Sensoren, Server, Smartphones, Kommunikationssatelliten und Laptops. Letzteres bezieht sich auf verschiedene Kenntnisse, Methoden und Fähigkeiten im Zusammenhang mit der Informationsbeschaffung und -verarbeitung, wie z. B. Sprach- und Schrifttechnologie, datenstatistische Analysetechnologie, Planungs- und Entscheidungstechnologie, Computersoftwaretechnologie usw.
ii. Computerhardware und -software
1. Computerhardware
(1) Es bezieht sich auf den allgemeinen Begriff für verschiedene physische Geräte, die aus elektronischen, mechanischen und optoelektronischen Komponenten in einem Computersystem bestehen. Diese physischen Geräte bilden entsprechend den Anforderungen der Systemstruktur ein organisches Ganzes und stellen eine materielle Grundlage für den Betrieb von Computersoftware dar.
(2) Hauptsächlich unterteilt in: Formel: Zugangsausrüstung für die Lufttransportlagerung
1||| Regler
Controller: Gibt Steuerinformationen gemäß vorgegebenen Befehlen aus, sodass der gesamte Computerbefehlsausführungsprozess Schritt für Schritt abläuft. Er ist das Nervenzentrum des Computers. Seine Funktion besteht darin, die vom Programm angegebenen Steuerinformationen zu interpretieren und entsprechend zu steuern Passen Sie Ihre Anforderungen an, planen Sie das Programm, Daten und Adressen, koordinieren Sie die Arbeit verschiedener Teile des Computers und den Zugriff auf Speicher und Peripheriegeräte usw.
Die Hauptfunktion: Rufen Sie eine Anweisung aus dem Speicher ab und geben Sie die Position der nächsten Anweisung im Speicher an, dekodieren oder testen Sie die Anweisung und generieren Sie entsprechende Betriebssteuersignale, um bestimmte Aktionen zu initiieren und die CPU, den Speicher und die Eingabe/Ausgabe zu steuern Fluss zwischen Geräten.
2||| Operator
Die Funktion der Recheneinheit besteht darin, verschiedene arithmetische Operationen und logische Operationen an Daten durchzuführen, also die Daten zu verarbeiten.
Zu den Grundoperationen der Recheneinheit gehören die vier Rechenoperationen Addition, Subtraktion, Multiplikation und Division, logische Operationen wie AND, OR, NOT und XOR sowie Operationen wie Verschiebungen, Vergleiche und Übertragungen auch Arithmetische Logikeinheit (ALU) genannt. Bei laufendem Rechner werden die Bedienung und die Art der Bedienung der Recheneinheit von der Steuerung bestimmt. Die Recheneinheit nimmt die Befehle der Steuerung entgegen und führt Aktionen aus, die von der Recheneinheit ausgeführt werden Steuersignale, die von der Steuerung gesendet werden.
3||| Erinnerung
Die Funktion des Speichers besteht darin, Programme, Daten, verschiedene Signale, Befehle und andere Informationen zu speichern und diese Informationen bei Bedarf bereitzustellen. Der Speicher wird in Speicher innerhalb des Computers (als Speicher bezeichnet) und Speicher außerhalb des Computers (als externer Speicher bezeichnet) unterteilt. Der interne Speicher kann funktionell in zwei Kategorien unterteilt werden: Lese-/Schreibspeicher (RAM) und Nur-Lese-Speicher (ROM).
Die Speicherkapazität des Computers wird in Bytes gemessen: Byte B (1 Byte = 8 Bit), Kilobyte (1 KB = 1024 B), Megabyte (1 MB = 1024 KB), Gigabyte (1 GB = 1024 MB), Terabyte-Abschnitt (1 TB = 1024 GB).
Zu den externen Speichern von Computern gehören im Allgemeinen: Disketten und Diskettenlaufwerke, Festplatten, optische Datenträger usw. sowie mobile Festplatten auf USB-Schnittstellenbasis, wiederbeschreibbare elektronische Festplatten, USB-Flash-Laufwerke usw.
4||| Eingabegerät
Eingabegeräte sind ein wichtiger Bestandteil des Computers. Eingabegeräte und Ausgabegeräte werden zusammenfassend als externe Geräte bezeichnet. Die Funktion des Eingabegeräts besteht darin, Informationen wie Programme, Originaldaten, Texte, Zeichen, Steuerbefehle usw. einzugeben Die vor Ort gesammelten Daten werden in den Computer übertragen.
Zu den häufig verwendeten Eingabegeräten gehören Tastaturen, Mäuse, Mikrofone, Kameras, Scanner, Codescanner, Handschriftpads, Touchscreens usw.
5||| Ausgabegerät
Das Ausgabegerät ist auch ein wichtiger Teil des Computers. Es gibt die Zwischenergebnisse oder Endergebnisse des externen Computers, verschiedene Datensymbole und Texte im Computer oder verschiedene Steuersignale und andere Informationen aus.
Zu den häufig verwendeten Ausgabegeräten gehören: Monitore, Drucker, Laserdrucker, Plotter usw.
2. Computer Software
(1) Es bezieht sich auf das Programm und seine Dokumentation im Computersystem. Das Programm ist die Beschreibung des Verarbeitungsobjekts und der Verarbeitungsregeln der Rechenaufgabe. Die Dokumentation ist das Anschauungsmaterial, das das Verständnis des Programms erleichtert.
(2) Vergleicht man einen Computer mit einem Menschen, dann repräsentiert die Hardware den menschlichen Körper, während die Software den menschlichen Geist und die Seele repräsentiert. Ein Computer ohne installierte Software wird als „Bare Metal“ bezeichnet.
(3) eingeteilt in
1||| Systemsoftware
Systemsoftware bezieht sich auf ein System, das Computer und externe Geräte steuert und koordiniert und die Entwicklung und den Betrieb von Anwendungssoftware unterstützt. Es handelt sich um eine Sammlung verschiedener Programme, die keinen Benutzereingriff erfordern Systeme; es ist für die Verwaltung verschiedener Aspekte von Computersystemen verantwortlich. Unabhängige Hardware ermöglicht deren harmonisches Funktionieren. Mit Systemsoftware können Computerbenutzer und andere Software den Computer als Ganzes betrachten, ohne sich Gedanken über die Funktionsweise der zugrunde liegenden Hardware machen zu müssen.
2||| Anwendung
Anwendungssoftware ist eine Sammlung verschiedener Programmiersprachen, die Benutzer verwenden können, und in verschiedenen Programmiersprachen zusammengestellter Anwendungsprogramme. Sie ist in Softwarepakete und Benutzerprogramme unterteilt.
Ein Anwendungssoftwarepaket ist eine Sammlung von Programmen, die dazu dienen, mithilfe von Computern bestimmte Arten von Problemen zu lösen, meist zur Verwendung durch Benutzer. Anwendungssoftware ist Software, die bereitgestellt wird, um die Anwendungsanforderungen von Benutzern in verschiedenen Bereichen und bei unterschiedlichen Problemen zu erfüllen.
3||| Middleware
Middleware ist Software, die zwischen dem Betriebssystem und Anwendungen sitzt. Es nutzt die von der Systemsoftware bereitgestellten Basisdienste (Funktionen), um verschiedene Teile des Anwendungssystems oder verschiedene Anwendungen im Netzwerk zu verbinden, und kann den Zweck der gemeinsamen Nutzung von Ressourcen und Funktionen erreichen. Middleware ist ein gemeinsamer Dienst zwischen der Plattform (Hardware und Betriebssystem) und der Anwendung. Diese Dienste verfügen über Standardprogrammschnittstellen und -protokolle. Unabhängig davon, wie die zugrunde liegende Computerhardware und Systemsoftware für verschiedene Betriebssysteme und Hardwareplattformen aktualisiert wird, muss die Anwendungssoftware kaum geändert werden, solange die Middleware aktualisiert wird und die Definition der externen Schnittstelle der Middleware unverändert bleibt Kontinuierlicher und stabiler Betrieb der Anwendungssoftware.
3. Hardware und Software sind voneinander abhängig. Hardware ist die materielle Grundlage, auf der Software funktioniert, und der normale Betrieb von Software ist eine wichtige Funktion der Hardware. Mit der Entwicklung der Computertechnologie können in vielen Fällen bestimmte Funktionen des Computers entweder durch Hardware oder Software implementiert werden. Daher gibt es in gewissem Sinne keine absolut strenge Grenze zwischen Hardware und Software.
iii. Computernetzwerk
1. Im Computerbereich verwendet ein Netzwerk physische Verbindungen, um isolierte Workstations oder Hosts zu verbinden und so eine Datenverbindung zu bilden, wodurch der Zweck der gemeinsamen Nutzung von Ressourcen und der Kommunikation erreicht wird. Computer verbinden mehrere Computersysteme mit unterschiedlichen geografischen Standorten und unabhängigen Funktionen über Kommunikationsgeräte und -leitungen und kombinieren sie mit Netzwerksoftware (Netzwerkprotokolle, Informationsaustauschmethoden, Netzwerkbetriebssysteme usw.), um die gemeinsame Nutzung verschiedener Computerressourcen zu realisieren.
2. Kommunikationsgrundlagen
Unter Kommunikation versteht man den Austausch und die Weitergabe von Informationen zwischen Menschen sowie zwischen Mensch und Natur durch bestimmte Verhaltensweisen oder Medien. Unter elektrischer (optischer) Kommunikation versteht man den Prozess der Übertragung und des Austauschs von Informationen von einem Ort zum anderen. Der Zweck der Kommunikation besteht darin, die in der Nachricht enthaltenen Informationen zu übermitteln. Kontinuierliche Nachrichten beziehen sich auf Nachrichten, deren Status sich im Laufe der Zeit kontinuierlich ändert, z. B. Sprachnachrichten. Diskrete Nachrichten beziehen sich auf Nachrichten, deren Status diskret ist, wie z. B. Symbole, Daten usw.
Kommunikationssysteme und -modelle
Ein Kommunikationssystem besteht aus drei Teilen: Quellsystem (Sender oder Sender), Übertragungssystem (Übertragungsnetz) und Zielsystem (Empfänger oder Empfänger).
Schlüsseltechnologien für moderne Kommunikation
(1) Im Allgemeinen handelt es sich bei der Kommunikationstechnologie tatsächlich um verwandte Technologien von Kommunikationssystemen und Kommunikationsnetzwerken. Ein Kommunikationssystem bezieht sich auf alle Einrichtungen, die für die Punkt-zu-Punkt-Kommunikation erforderlich sind, während ein Kommunikationsnetzwerk alle Einrichtungen umfasst, die zwischen mehreren Punkten, die aus vielen Kommunikationssystemen bestehen, miteinander kommunizieren können.
(2) Enthalten
1||| digitale Kommunikationstechnologie
Dabei handelt es sich um eine Kommunikationsmethode, die digitale Signale als Träger für die Übertragung von Informationen verwendet oder digitale Signale verwendet, um die Trägerwelle vor der Übertragung digital zu debuggen. Es kann sowohl digitale Signale wie Telegramme und digitale Daten als auch analoge Signale wie digitalisierte Sprache und Bilder übertragen.
2||| Informationsübertragungstechnik
Es ist ein allgemeiner Begriff, der hauptsächlich für verschiedene Technologien zur Verwaltung und Verarbeitung von Informationen verwendet wird. Er wendet hauptsächlich Informatik und Kommunikationstechnologie an, um Informationssysteme und Anwendungssoftware zu entwerfen, zu entwickeln, zu installieren und zu implementieren.
3||| Kommunikationsnetzwerktechnologie
Verbinden Sie isolierte Geräte physisch, um Verbindungen für den Informationsaustausch zwischen Menschen, Menschen und Computern herzustellen, und Computer, um den Zweck der Ressourcenfreigabe und Kommunikation zu erreichen.
3. Netzwerkgrundlagen
(1) Klassifizierung nach Netzwerkumfang
1||| Persönliches Netzwerk (PersonalAreaNetwork, PAN)
Ein Ad-hoc-Netzwerk, das persönliche elektronische Geräte (z. B. tragbare Computer usw.) mithilfe drahtloser Technologie am Arbeitsplatz einer Person verbindet. Daher wird es häufig als drahtloses persönliches Netzwerk WPAN (Wireless PAN) bezeichnet. Aus Sicht eines Computernetzwerks ist PAN ein lokales Netzwerk, dessen Reichweite normalerweise etwa 10 m beträgt.
2||| Lokales Netzwerk (LAN)
Bezieht sich normalerweise auf die Verwendung von Mikrocomputern oder Workstations, die über Hochgeschwindigkeitskommunikationsleitungen verbunden sind (die Geschwindigkeit liegt normalerweise über 10 Mbit/s), und die geografische Reichweite beträgt normalerweise etwa 1 km. Umfasst normalerweise einen Campus, eine Einheit, ein Gebäude usw.
3||| Metropolitan Area Network (MAN)
Der Wirkungsbereich kann sich über mehrere Blocks oder sogar die ganze Stadt erstrecken und beträgt ca. 5-50 km.
4||| Wide Area Network (WAN)
Knotenschalter werden verwendet, um jeden Host zu verbinden, und die Verbindungsverbindungen zwischen den Knotenschaltern sind im Allgemeinen Hochgeschwindigkeitsverbindungen mit großer Kommunikationskapazität. Die Reichweite eines Weitverkehrsnetzes beträgt in der Regel Zehntausende Kilometer und es kann Daten über große Entfernungen über ein Land oder einen Kontinent hinweg übertragen.
(2) Einordnung aus Sicht der Netzwerknutzer
1||| Öffentliches Netzwerk
Bezieht sich auf ein großes Netzwerk, das von Telekommunikationsunternehmen finanziert und aufgebaut wird, um Dienstleistungen für die Öffentlichkeit bereitzustellen, auch bekannt als öffentliches Netzwerk.
2||| Privates Netzwerk
Bezieht sich auf das Netzwerk, das von einer bestimmten Abteilung zur Erfüllung der besonderen Geschäftsaufgaben der Einheit aufgebaut wurde. Dieses Netzwerk stellt beispielsweise keine Dienste für Personen außerhalb der Einheit bereit. Beispielsweise verfügen Elektrizität, Militär, Eisenbahnen, Banken usw. über spezielle Netzwerke dieses System.
4. Internetausrüstung
(1) Die Übertragung von Informationen im Netzwerk umfasst hauptsächlich die Ethernet-Technologie und die Netzwerkvermittlungstechnologie. Netzwerk-Switching bezieht sich auf eine Form des Switchings, bei der bestimmte Geräte (z. B. Schalter usw.) verwendet werden, um verschiedene Signale oder Signalformen in Signaltypen umzuwandeln, die von der anderen Partei erkannt werden können, um Kommunikationszwecke zu erreichen Vermittlung, Nachrichtenvermittlung und Paketvermittlung.
(2) In Computernetzwerken kann die Netzwerkumschaltung unterteilt werden in:
1||| Switching der physikalischen Schicht (z. B. Telefonnetz)
2||| Link-Layer-Switching (Layer-2-Switching – MAC-Adresse ändern)
3||| Netzwerkschicht-Switching (dreischichtiges Switching – Ändern der IP-Adresse)
4||| Transportschicht-Switching (Vierschicht-Switching – wechselnde Ports, relativ selten)
5||| Wechsel der Anwendungsschicht
(3) Während der Netzwerkverbindung kann jeder Knoten im Allgemeinen nicht einfach direkt verbunden werden, sondern muss über Netzwerkverbindungsgeräte implementiert werden. Gemäß dem Schichtprinzip des OSI-Referenzmodells muss das Zwischengerät die Protokollkonvertierungsfunktion zwischen verschiedenen Netzwerken implementieren.
(4) Sie werden nach den verschiedenen Protokollebenen klassifiziert, auf denen sie arbeiten:
1||| Repeater (implementiert die Protokollkonvertierung der physikalischen Schicht und wandelt Binärsignale zwischen Kabeln um);
2||| Netzwerkbrücke (Implementierung der Protokollkonvertierung der physikalischen Schicht und der Datenverbindungsschicht);
3||| Router (Implementierung der Protokollkonvertierung zwischen der Netzwerkschicht und den folgenden Schichten);
4||| Gateway (bereitstellt Protokollkonvertierung von der untersten Schicht zur Transportschicht oder höher);
5||| schalten
(5) In tatsächlichen Anwendungen sind die von jedem Hersteller bereitgestellten Geräte multifunktional und abwärtskompatibel.
(6) Aufgrund der zunehmenden Verbreitung der drahtlosen Technologie gibt es derzeit viele auf drahtlosen Netzwerken basierende Produkte auf dem Markt, darunter drahtlose Netzwerkkarten, drahtlose APs, drahtlose Brücken und drahtlose Router.
5. Netzwerk-Standardprotokoll
(1) Ein Netzwerkprotokoll ist eine Reihe von Regeln, Standards oder Konventionen, die für den Datenaustausch in einem Computernetzwerk festgelegt wurden. Netzwerkprotokolle bestehen aus drei Elementen, nämlich Semantik, Syntax und Timing. Semantik ist die Erklärung der Bedeutung jedes Teils der Steuerinformationen. Sie legt fest, welche Art von Steuerinformationen gesendet werden müssen, welche Aktionen ausgeführt werden sollen und welche Art von Antwort erfolgen soll. Dies ist die Struktur und das Format der Benutzerdaten und der Steuerelemente Informationen und die Reihenfolge, in der die Daten erscheinen: Chronologie ist eine detaillierte Beschreibung der Reihenfolge, in der Ereignisse auftreten. Menschen beschreiben diese drei Elemente anschaulich als: Die Semantik stellt dar, was zu tun ist, die Syntax stellt dar, wie es getan wird, und das Timing stellt die Reihenfolge dar, in der es ausgeführt wird.
(2) OSI
Das Open System Interconnect-Referenzmodell (Open System Interconnect, OSI), gemeinsam entwickelt von der International Organization for Standardization (ISO) und dem International Telegraph and Telephone Consultative Committee (CCITT).
Sein Zweck besteht darin, eine gemeinsame Grundlage und einen Standardrahmen für heterogene Computerverbindungen bereitzustellen und eine gemeinsame Referenz für die Wahrung der Konsistenz und Kompatibilität verwandter Standards bereitzustellen.
OSI verwendet eine schichtweise strukturierte Technologie, die von unten nach oben in sieben Schichten unterteilt ist: physikalische Schicht, Datenverbindungsschicht, Netzwerkschicht, Transportschicht, Sitzungsschicht, Präsentationsschicht und Anwendungsschicht.
WAN-Protokolle arbeiten auf den unteren drei Schichten des OSI-Referenzmodells und definieren die Kommunikation über verschiedene WAN-Medien. Zu den WAN-Protokollen gehören hauptsächlich: PPP-Punkt-zu-Punkt-Protokoll, ISDN-Digitalnetzwerk mit integrierten Diensten, xDSL (allgemeine Bezeichnung für digitale DSL-Teilnehmeranschlüsse: HDSL, SDSL, MVL, ADSL), digitale DDN-Standleitung, x.25, FR-Frame-Relay , ATM asynchroner Übertragungsmodus.
(3) IEEE802-Protokollfamilie
Die IEEE802-Spezifikation definiert, wie die Netzwerkkarte auf das Übertragungsmedium zugreift (z. B. optisches Kabel, Twisted-Pair, WLAN usw.) und die Methode zur Datenübertragung auf dem Übertragungsmedium. Sie definiert auch den Aufbau, die Aufrechterhaltung und den Abbau von Verbindungen zwischen Netzwerken Geräte, die Informationen übertragen. Zu den Produkten, die dem IEEE802-Standard entsprechen, gehören Netzwerkkarten, Bridges, Router und andere Komponenten, die zum Aufbau lokaler Netzwerke verwendet werden.
Die IEEE802-Spezifikation umfasst eine Reihe von Standardprotokollfamilien, unter denen die Ethernet-Spezifikation IEEE 802.3 ein wichtiges LAN-Protokoll ist, darunter:
(4) TCP/IP
Das TCP/IP-Protokoll ist der Kern des Internetprotokolls. In der Anwendungsschicht definiert das TCP/IP-Protokoll viele anwendungsorientierte Protokolle. Anwendungen nutzen das Netzwerk, um Dateninteraktionsaufgaben über diese Protokollschicht abzuschließen. Diese Vereinbarungen umfassen hauptsächlich:
Basierend auf TCP
1||| FTP (File Transfer Protocol, Dateiübertragungsprotokoll)
Es handelt sich um ein Protokoll zum Übertragen von Dateien zwischen zwei Computern im Netzwerk. Es ist eine Möglichkeit, Dateien über das Internet vom Client auf den Server zu kopieren. Zu den Übertragungsmodi gehören Bin (binär) und ASCII (Textdatei). Mit Ausnahme von Textdateien sollte für die Übertragung der Binärmodus verwendet werden.
2||| HTTP (Hypertext Transfer Protocol, Hypertext Transfer Protocol)
Ist ein Transportprotokoll, das zur Übertragung von Hypertext von einem WWW-Server an einen lokalen Browser verwendet wird. Es kann den Browser effizienter machen und die Netzwerkübertragung reduzieren. Es stellt nicht nur sicher, dass der Computer Hypertextdokumente korrekt und schnell überträgt, sondern bestimmt auch, welcher Teil des übertragenen Dokuments und welcher Teil des Inhalts zuerst angezeigt wird.
3||| SMTP (Simple Mail Transfer Protocol, einfaches Mail-Übertragungsprotokoll)
Ist ein Protokoll, das eine zuverlässige und effiziente Übertragung von E-Mails ermöglicht. SMTP ist ein E-Mail-Dienst, der auf dem FTP-Dateiübertragungsdienst aufbaut. Er wird hauptsächlich zur Übertragung von E-Mail-Informationen zwischen Systemen und zur Bereitstellung von E-Mail-Benachrichtigungen verwendet.
4||| Telnet (Remote-Login-Protokoll)
Es handelt sich um ein Anmelde- und Emulationsprogramm, dessen Grundfunktion darin besteht, Benutzern die Anmeldung und den Zugriff auf entfernte Computersysteme zu ermöglichen. Bisher war Telnet ein einfaches Terminalprogramm, das alle Benutzereingaben zur Verarbeitung an den Remote-Computer sendete. Derzeit führen einige neuere Versionen lokal mehr Verarbeitung durch, bieten eine bessere Reaktion und reduzieren die Menge der über die Verbindung an den Remote-Computer gesendeten Informationen.
Basierend auf UDP
1||| TFTP (Trivial File Transfer Protocol, einfaches Dateiübertragungsprotokoll)
Es handelt sich um ein Protokoll zur einfachen Dateiübertragung zwischen Client und Server, das unkomplizierte und kostengünstige Dateiübertragungsdienste bietet. Es basiert auf UDP und bietet unzuverlässige Datenstromübertragungsdienste, keine Speicherautorisierungs- und Authentifizierungsmechanismen und verwendet Timeout-Neuübertragungen, um die Ankunft von Daten sicherzustellen.
2||| DHCP (Dynamic Host Configuration Protocol, dynamisches Hostkonfigurationsprotokoll)
Es basiert auf einer Client/Server-Struktur. Alle IP-Netzwerkeinstellungsdaten werden zentral vom DHCP-Server verwaltet und sind für die Verarbeitung der DHCP-Anfragen des Clients verantwortlich. Der Client verwendet die vom Server zugewiesenen IP-Umgebungsdaten. Von DHCP zugewiesene IP-Adressen können in drei Methoden unterteilt werden: feste Zuweisung, dynamische Zuweisung und automatische Zuweisung.
3||| DNS (Domain Name System, Domänennamensystem)
Es gibt eine Eins-zu-eins-Entsprechung zwischen Domänennamen und IP-Adressen. Obwohl Domänennamen für Menschen leicht zu merken sind, können Maschinen nur die IP-Adressen anderer erkennen Für die Auflösung ist ein spezieller Domänennamen-Auflösungsserver erforderlich. DNS ist der Server, der die Domänennamen-Auflösung durchführt. DNS findet Computer und Dienste anhand benutzerfreundlicher Namen.
4||| SNMP (Simple Network Management Protocol, einfaches Netzwerkverwaltungsprotokoll)
Es wurde zur Lösung von Router-Verwaltungsproblemen im Internet vorgeschlagen. Es kann für IP, IPX, AppleTalk und andere Übertragungsprotokolle verwendet werden. SNMP bezieht sich auf eine Sammlung von Netzwerkverwaltungsspezifikationen, einschließlich des Protokolls selbst, der Definition von Datenstrukturen und einiger verwandter Konzepte. Derzeit ist SNMP der De-facto-Industriestandard im Bereich Netzwerkmanagement und wird weithin unterstützt und angewendet. Die meisten Netzwerkmanagementsysteme und -plattformen basieren auf SNMP.
(5) TCP und UDP
In der OSI-Transportschicht gibt es zwei wichtige Übertragungsprotokolle, nämlich TCP (Transmission Control Protocol) und UDP (User Datagram Protocol). Diese Protokolle dienen der Flusskontrolle, Fehlerprüfung und Sortierung.
TCP ist eines der wichtigsten Protokolle in der gesamten TCP/IP-Protokollsuite. Basierend auf den unzuverlässigen Datendiensten des IP-Protokolls nutzt es die Neuübertragungstechnologie, um Anwendungen einen zuverlässigen, verbindungsorientierten, vollständig doppelten Datenübertragungsdienst bereitzustellen . Das TCP-Protokoll wird im Allgemeinen in Situationen verwendet, in denen die übertragene Datenmenge relativ gering ist und die Anforderungen an die Zuverlässigkeit hoch sind.
UDP ist ein unzuverlässiges, verbindungsloses Protokoll, das die Kommunikation zwischen Anwendungsprozessen gewährleistet. Im Vergleich zu TCP ist UDP ein verbindungsloses Protokoll und seine Fehlererkennungsfunktion ist viel schwächer. Man kann sagen, dass TCP zur Gewährleistung der Zuverlässigkeit beiträgt, während UDP zur Erhöhung der Übertragungsrate beiträgt. Das UDP-Protokoll wird im Allgemeinen in Situationen verwendet, in denen große Datenmengen übertragen werden und die Anforderungen an die Zuverlässigkeit nicht sehr hoch sind, aber eine hohe Geschwindigkeit erforderlich ist.
6. Softwaredefiniertes Netzwerk-SDN
Software Defined Network (SDN) ist eine neue innovative Netzwerkarchitektur und eine Implementierungsmethode der Netzwerkvirtualisierung. Sie kann das Netzwerk durch Softwareprogrammierung definieren und steuern. Das Netzwerk ist voneinander getrennt. Dadurch wird eine flexible Steuerung des Netzwerkverkehrs erreicht, das Netzwerk wird intelligenter und eine gute Plattform für die Innovation von Kernnetzwerken und Anwendungen bereitgestellt.
Mithilfe des Layering-Gedankens trennt SDN Daten und Kontrolle. Die Kontrollschicht umfasst einen logisch zentralisierten und programmierbaren Controller, der globale Netzwerkinformationen erfassen und Betreibern und Forschern die Verwaltung und Konfiguration des Netzwerks sowie die Bereitstellung neuer Protokolle erleichtern kann. Die Datenschicht, einschließlich dummer Switches (im Gegensatz zu herkömmlichen Layer-2-Switches, bezieht sich speziell auf Geräte, die zur Weiterleitung von Daten verwendet werden), bietet nur einfache Datenweiterleitungsfunktionen, die passende Datenpakete schnell verarbeiten können, um sich an die steigende Datenflussrate anzupassen. Die beiden Schichten nutzen für die Interaktion offene einheitliche Schnittstellen (wie Openflow usw.). Der Controller liefert über eine Standardschnittstelle einheitliche Standardregeln an den Switch, und der Switch muss nur entsprechende Aktionen gemäß diesen Regeln ausführen. SDN durchbricht die Geschlossenheit traditioneller Netzwerkgeräte.
Die Gesamtarchitektur von SDN ist von unten nach oben (von Süden nach Norden) in Datenebene, Steuerungsebene und Anwendungsebene unterteilt. Unter diesen besteht die Datenebene aus allgemeiner Netzwerkhardware wie Switches, und verschiedene Netzwerkgeräte sind über SDN-Datenpfade verbunden, die durch unterschiedliche Regeln gebildet werden. Die Steuerebene umfasst den logisch zentrierten SDN-Controller, der globale Netzwerkinformationen verwaltet und dafür verantwortlich ist alle Aspekte des Netzwerks; die Anwendungsebene umfasst verschiedene SDN-basierte Netzwerkanwendungen, und Benutzer können neue Anwendungen programmieren und bereitstellen, ohne sich um die zugrunde liegenden Details zu kümmern.
Die Steuerungsebene und die Datenebene kommunizieren über das SDN Control-Data-Plane Interface (CDPI), das über einen einheitlichen Kommunikationsstandard verfügt und hauptsächlich für die Übermittlung der Weiterleitungsregeln im Controller an das Weiterleitungsgerät verantwortlich ist. Die Hauptanwendung ist das OpenFlow-Protokoll . Die Steuerungsebene und die Anwendungsebene kommunizieren über das SDN North Bound Interface (NBI). Es ist kein einheitlicher Standard. Es ermöglicht Benutzern, verschiedene Netzwerkverwaltungsanwendungen entsprechend ihren eigenen Anforderungen anzupassen.
Die Schnittstellen in SDN sind offen, wobei der Controller das logische Zentrum darstellt. Die Süd-Schnittstelle ist für die Kommunikation mit der Datenebene verantwortlich, die Nord-Schnittstelle ist für die Kommunikation mit der Anwendungsebene verantwortlich und die Ost-West-Schnittstelle ist für die Kommunikation zwischen ihnen verantwortlich mehrere Controller. Die gängigste Southbound-Schnittstelle, CDP, verwendet das OpenFlow-Protokoll. Die grundlegendste Funktion von OpenFlow besteht darin, Weiterleitungsregeln basierend auf dem Flow-Konzept anzupassen. Jeder Switch verwaltet eine Flusstabelle (FlowTable) und leitet sie gemäß den Weiterleitungsregeln in der Flusstabelle weiter Alles erledigt der Controller. Für die Northbound-Schnittstelle ruft die Anwendung über die Northbound-Schnittstellenprogrammierung verschiedene erforderliche Netzwerkressourcen auf, um eine schnelle Konfiguration und Bereitstellung des Netzwerks zu erreichen. Das Ost-West-Gate macht den Controller skalierbar und bietet technische Garantie für Lastverteilung und Leistungsverbesserung.
7. Mobilfunktechnologie der fünften Generation
Die Mobilkommunikationstechnologie der fünften Generation (5G) ist eine neue Generation der Mobilkommunikationstechnologie mit den Merkmalen hoher Geschwindigkeit, geringer Verzögerung und großer Verbindung.
Die Internationale Fernmeldeunion (JTU) definiert acht Hauptindikatoren für 5G:
Die internationalen technischen Standards von 5G konzentrieren sich auf die Erfüllung der Anforderungen eines flexiblen und vielfältigen Internets der Dinge. Basierend auf den Grundtechnologien OFDMA (Orthogonal Frequency Division Multiple Access) und MIMO (Multiple Input Multiple Output) übernimmt 5G ein neues und flexibles Systemdesign, um drei wichtige Anwendungsszenarien zu unterstützen. In Bezug auf die Frequenzbänder unterstützt 5G im Gegensatz zu 4G, das mittlere und niedrige Frequenzbänder unterstützt, sowohl mittlere bis niedrige Frequenzbänder als auch Hochfrequenzbänder. Um eine Hochgeschwindigkeitsübertragung und eine bessere Abdeckung zu unterstützen, verwendet 5G LDPC (einen Gruppenfehlerkorrekturcode mit einer spärlichen Prüfmatrix) und Polar (einen linearen Blockcode basierend auf der Kanalpolarisationstheorie) neue Kanalcodierungsschemata mit stärkerer Leistung im großen Maßstab Antennentechnik usw. Um eine geringe Latenz und hohe Zuverlässigkeit zu unterstützen, nutzt 5G Technologien wie kurze Frames, schnelles Feedback und mehrschichtige/mehrstationige Datenübertragung.
Die Internationale Fernmeldeunion (ITU) hat drei Hauptanwendungsszenarien für 5G definiert: Enhanced Mobile Broadband (eMBB), Ultra-Reliable Low Latency Communications (uRLLC) und Massive Machine Type Communications (mMTC). Verbessertes mobiles Breitband zielt hauptsächlich auf das explosionsartige Wachstum des mobilen Internetverkehrs ab und bietet mobilen Internetnutzern ein extremeres Anwendungserlebnis. Die Kommunikation mit extrem hoher Zuverlässigkeit und geringer Latenz zielt hauptsächlich auf industrielle Steuerung, Telemedizin, autonomes Fahren usw. ab verfügt über eine extrem hohe Latenz und Zuverlässigkeit. Erforderliche vertikale Branchenanwendungsanforderungen: Massive maschinenartige Kommunikation ist hauptsächlich auf Anwendungsanforderungen ausgerichtet, die auf Sensorik und Datenerfassung abzielen, z. B. Smart Cities, Smart Homes und Umweltüberwachung.
iv. Speicherung und Datenbank
1. Speichertechnik
(1) Die Speicherklassifizierung ist je nach Servertyp in geschlossene Systemspeicher und offene Systemspeicher unterteilt. Unter geschlossenen Systemen versteht man vor allem Server wie Mainframes. Offene Systeme beziehen sich auf Server, die auf Betriebssystemen wie Kirin, Euler, UNIX, Linux und anderen Betriebssystemen basieren. Offener Systemspeicher ist unterteilt in: integrierten Speicher und Plug-in-Speicher.
(2) Plug-in-Speicher ist unterteilt in
1||| Direct-Attached Storage (DAS)
DAS, auch bekannt als SAS (Server-Attached Storage, servergebundener Speicher). DAS ist ein Datenspeichergerät, das direkt mit verschiedenen Server- oder Client-Erweiterungsschnittstellen verbunden ist. Es ist auf den Server angewiesen und ein Hardware-Stack ohne Speicherbetriebssystem. Bei diesem Ansatz wird das Speichergerät über ein Kabel (normalerweise ein SCSI-Schnittstellenkabel) direkt mit dem Server verbunden und E/A-Anfragen (Eingabe/Ausgabe) werden direkt an das Speichergerät gesendet.
2||| Netzwerkspeicher (Fabric-Attached Storage, FAS) werden unterteilt in
a. Network-Attached Storage (NAS)
NAS wird auch als Network Direct Attached Storage-Gerät oder Network Disk Array bezeichnet. Es handelt sich um ein professionelles Netzwerk-Dateispeicher- und Dateisicherungsgerät. Es basiert auf LAN (Local Area Network) und kommuniziert gemäß dem TCP/IP-Protokoll. Für die Datenübertragung wird der Datei-E/A-O-Modus (Eingabe/Ausgabe) verwendet. Ein NAS umfasst einen Kernprozessor, Dateidienst-Verwaltungstools und eine oder mehrere Festplatten zur Datenspeicherung.
b. Storage Area Network (SAN)
SAN ist ein dediziertes Hochgeschwindigkeits-Subnetz, das Speichergeräte wie Festplatten-Arrays und Bänder über Glasfaser-Hubs, Glasfaser-Router, Glasfaser-Switches und andere Verbindungsgeräte mit zugehörigen Servern verbindet. SAN besteht aus drei Grundkomponenten: Schnittstellen (wie SCSI, Fibre Channel, ESCON usw.), Verbindungsgeräten (Switching-Geräte, Gateways, Router, Hubs usw.) und Kommunikationssteuerungsprotokollen (wie IP und SCSI usw.). .). Diese drei Komponenten bilden zusammen mit zusätzlichen Speichergeräten und unabhängigen SAN-Servern ein SAN-System. SAN umfasst hauptsächlich FC SAN und IP SAN. Das Netzwerkmedium von FC SAN ist Fibre Channel, während IP SAN Standard-Ethernet verwendet. IP SAN kann die von SAN für Server bereitgestellten Freigabefunktionen gut mit der Benutzerfreundlichkeit von IP-Netzwerken kombinieren und Benutzern ein Hochleistungserlebnis bieten, das der lokalen Speicherung auf dem Server ähnelt.
(3) Speichervirtualisierung
Speichervirtualisierung ist eine der Kerntechnologien des „Cloud-Speichers“. Sie integriert Speicherressourcen aus einem oder mehreren Netzwerken und bietet Benutzern eine abstrakte logische Ansicht. Benutzer können die einheitliche Logik in dieser Ansicht verwenden, um auf integrierte Speicherressourcen zuzugreifen.
Durch die Speichervirtualisierung können Speichergeräte in logische Datenspeicher umgewandelt werden. Eine virtuelle Maschine wird als Satz von Dateien in einem Verzeichnis im Datenspeicher gespeichert. Der Datenspeicher ist ein logischer Container ähnlich einem Dateisystem. Es verbirgt die Eigenschaften jedes Speichergeräts und bildet ein einheitliches Modell zur Bereitstellung von Festplatten für virtuelle Maschinen. Die Speichervirtualisierungstechnologie hilft dem System bei der Verwaltung der Speicherressourcen der virtuellen Infrastruktur, indem sie die Ressourcennutzung und -flexibilität sowie die Anwendungsverfügbarkeit meldet.
(4) grüne Lagerung
Unter grüner Speichertechnologie versteht man eine Technologie, die unter dem Gesichtspunkt der Energieeinsparung und des Umweltschutzes eingesetzt wird, um Speicherprodukte mit besserer Energieeffizienz zu entwickeln und herzustellen, den Stromverbrauch von Datenspeichergeräten zu reduzieren und die Leistung pro Watt von Speichergeräten zu verbessern.
Der Kern der grünen Speichertechnologie besteht darin, Prozessoren und effizientere Systeme zu entwickeln, die kühler laufen, Speichersysteme oder Komponenten mit geringerem Energieverbrauch produzieren und die von Produkten erzeugten elektronischen Kohlenstoffverbindungen reduzieren. Das ultimative Ziel besteht darin, die Leistung aller Netzwerkspeicher zu verbessern Geräte, die die geringste Speicherkapazität für den Geschäftsbedarf nutzen und dadurch am wenigsten Energie verbrauchen. Ein von grünen Konzepten geleitetes Speichersystem ist letztlich ein Gleichgewicht zwischen Speicherkapazität, Leistung und Energieverbrauch.
Die grüne Speichertechnologie umfasst alle Speicherfreigabetechnologien, einschließlich Festplatten- und Bandsysteme, Serververbindungen, Speichergeräte, Netzwerkarchitektur und andere Speichernetzwerkarchitekturen, Dateidienste und Speicheranwendungssoftware, Löschung von Wiederherstellungsdaten, automatisches Thin Provisioning und bandbasierte Backup-Technologie Technologien, die die Speicherauslastung verbessern und Bau- und Betriebskosten senken können, zielen darauf ab, die Energieeffizienz aller Netzwerkspeichertechnologien zu verbessern.
2. Datenstrukturmodell
(1) Das Datenstrukturmodell ist der Kern des Datenbanksystems. Die Datenstrukturtransformation beschreibt die Methode zur Strukturierung und Bearbeitung von Daten in der Datenbank. Der strukturelle Teil des Modells gibt an, wie die Daten beschrieben werden (z. B. Bäume, Tabellen usw.). Der Manipulationsteil des Modells spezifiziert Vorgänge wie das Hinzufügen, Löschen, Anzeigen, Verwalten, Drucken, Suchen, Auswählen, Anordnen und Aktualisieren von Daten.
(2) Es gibt drei gängige Datenstrukturmodelle: hierarchisches Modell, Netzwerkmodell und relationales Modell. Das hierarchische Modell und das Netzwerkmodell werden zusammen als formatiertes Datenmodell bezeichnet.
1||| hierarchisches Modell
Das hierarchische Modell ist das früheste in Datenbanksystemen verwendete Modell. Es verwendet eine „Baum“-Struktur, um die Verbindung zwischen Entitätsmengen, in denen die Entitätsmengen (dargestellt durch rechteckige Kästchen) Knoten sind, und die Verbindungen zwischen den Knoten im Baum darzustellen stellen die Beziehung zwischen ihnen dar. (Kann nur Eins-zu-viele-Entitätsbeziehungen verarbeiten)
Jeder gegebene Datensatzwert im hierarchischen Modell kann nur entsprechend seinem hierarchischen Pfad angezeigt werden. Es kann kein untergeordneter Datensatzwert unabhängig vom übergeordneten Datensatzwert existieren.
Zu den wichtigsten Vorteilen gehören:
a. Die Datenstruktur des hierarchischen Modells ist relativ einfach und klar
b. Die Abfrageeffizienz der hierarchischen Datenbank ist hoch und ihre Leistung ist besser als die des relationalen Modells und nicht geringer als die des Netzwerkmodells.
c. 3: Das hierarchische Modell bietet eine gute Integritätsunterstützung.
Zu den Hauptnachteilen zählen:
a. Viele Beziehungen in der realen Welt sind nicht hierarchisch, und die Verwendung hierarchischer Modelle zur Darstellung von Viele-zu-Viele-Beziehungen zwischen Knoten ist nicht geeignet.
b. Wenn ein Knoten mehrere übergeordnete Knoten usw. hat, ist die Verwendung eines hierarchischen Modells zur Darstellung solcher Verbindungen umständlich und kann nur durch die Einführung redundanter Daten oder die Erstellung unnatürlicher Datenstrukturen gelöst werden.
c. Es gibt viele Einschränkungen für Einfüge- und Löschvorgänge, sodass das Schreiben von Anträgen komplizierter ist.
d. Die Abfrage von untergeordneten Knoten muss über die übergeordneten Knoten erfolgen.
e. Aufgrund ihrer engen Struktur sind hierarchische Befehle in der Regel prozedural.
2||| Mesh-Modell
Ein Datenstrukturmodell, das eine gerichtete Diagrammstruktur zur Darstellung von Entitätstypen und Beziehungen zwischen Entitäten verwendet, wird als Netzwerkmodell bezeichnet.
Im Netzwerkmodell werden Datensätze als Speichereinheit für Daten verwendet. Ein Datensatz enthält mehrere Datenelemente. Datenelemente in einer Netzwerkdatenbank können mehrwertige und zusammengesetzte Daten sein. Jeder Datensatz verfügt über eine interne Kennung, die ihn eindeutig identifiziert, einen sogenannten Code (DatabaseKey, DBK), der automatisch vom Datenbankverwaltungssystem DBMS zugewiesen wird, wenn ein Datensatz in der Datenbank gespeichert wird. DBK kann als logische Adresse des Datensatzes betrachtet werden, als „Ersatz“ für den Datensatz verwendet werden oder zum Suchen von Datensätzen verwendet werden. Die Netzwerkdatenbank ist eine Navigationsdatenbank. Beim Betrieb der Datenbank erklären Benutzer nicht nur, was zu tun ist, sondern auch, wie es zu tun ist. Beispielsweise muss in der Suchanweisung nicht nur das Suchobjekt, sondern auch der Zugriffspfad angegeben werden.
Zu den wichtigsten Vorteilen gehören:
a. Es kann die reale Welt direkter beschreiben und verschiedene komplexe Beziehungen zwischen Entitäten ausdrücken.
b. Es verfügt über eine gute Leistung und eine hohe Zugriffseffizienz.
Zu den Hauptnachteilen zählen:
a. Die Struktur ist relativ komplex und für Benutzer nicht einfach zu bedienen.
b. Die Datenunabhängigkeit ist gering. Da die Beziehung zwischen Entitäten im Wesentlichen durch Zugriffspfade dargestellt wird, müssen Anwendungen beim Zugriff auf Daten Zugriffspfade angeben.
3||| relationales Modell
Das relationale Modell ist ein Modell, das eine zweidimensionale Tabelle verwendet, um Entitäten und die Verbindungen zwischen Entitäten in einer relationalen strukturierten Datenbank darzustellen. Das relationale Modell wird auf der Grundlage des relationalen Konzepts der Mengenlehre entwickelt. Im relationalen Modell werden beide Entitäten und die Verbindungen zwischen Entitäten durch eine einzige Strukturtypbeziehung dargestellt.
Zu den wichtigsten Vorteilen gehören:
a. Einzelne Datenstruktur:
Im relationalen Modell werden sowohl Entitäten als auch die Verbindungen zwischen Entitäten durch Beziehungen dargestellt, und Beziehungen entsprechen einer zweidimensionalen Datentabelle, und die Datenstruktur ist einfach und klar.
b. Beziehungen sind standardisiert und basieren auf strengen theoretischen Grundlagen:
Die grundlegenden Normen, die eine Beziehung ausmachen, erfordern, dass jedes Attribut in der Beziehung nicht unterteilt werden kann und dass die Beziehung auf strengen mathematischen Konzepten mit einer soliden theoretischen Grundlage basiert.
c. Einfaches Konzept und einfache Bedienung:
Der größte Vorteil des relationalen Modells besteht darin, dass es für Benutzer einfach und leicht zu verstehen und zu beherrschen ist. Eine Beziehung ist eine zweidimensionale Tabelle. Benutzer müssen nur einfache Abfragesprachen verwenden, um die Datenbank zu bedienen.
Zu den Hauptnachteilen zählen:
a. Der Zugriffspfad ist für Benutzer transparent und die Abfrageeffizienz ist oft nicht so gut wie das formatierte Datenmodell.
b. Um die Leistung zu verbessern, müssen Benutzerabfrageanforderungen optimiert werden, was die Entwicklung eines Datenbankverwaltungssystems schwieriger macht.
3. Gängige Datenbanktypen
(1) Relationale Datenbank (SQL)
Netzwerkdatenbanken und hierarchische Datenbanken haben die Probleme der Datenzentralisierung und -freigabe gut gelöst, es bestehen jedoch immer noch große Mängel bei der Datenunabhängigkeit und dem Abstraktionsniveau. Wenn Benutzer auf diese beiden Datenbanken zugreifen, müssen sie noch die Speicherstruktur der Daten klären und den Zugriffspfad angeben. Um dieses Problem zu lösen, wurde die relationale Datenbank ins Leben gerufen, die das relationale Modell zur Organisation von Daten verwendet.
Eine relationale Datenbank ist eine Sammlung aller Entitäten und der Beziehungen zwischen Entitäten in einer bestimmten Anwendungsdomäne. Relationale Datenbanken unterstützen die ACID-Prinzipien von Transaktionen, d. h. die vier Prinzipien Atomizität, Konsistenz, Isolation und Dauerhaftigkeit stellen die Korrektheit der Daten während des Transaktionsprozesses sicher.
Zu den Hauptmerkmalen gehören:
1||| Die Reihenfolge der Zeilen und Spalten in der Tabelle ist nicht wichtig
2||| Zeile: Jede Zeile in der Tabelle, auch Datensatz genannt
3||| Spalte: Jede Spalte in der Tabelle, auch als Attribute und Felder bezeichnet
4||| Primärschlüssel PK (Primärschlüssel): Das Feld Fremdschlüssel FK dient zur eindeutigen Bestimmung eines Datensatzes
5||| Domäne: Der Wertebereich des Attributs. Das Geschlecht kann beispielsweise nur zwei Werte haben: „männlich“ und „weiblich“.
(2) Nicht relationale Datenbank (nicht nur SQL, NoSQL)
Eine nicht-relationale Data-Mining-Datenbank ist ein verteiltes, nicht-relationales Datenspeichersystem, das die Einhaltung der ACID-Grundsätze nicht garantiert. Die NoSQL-Datenspeicherung erfordert keine feste Tabellenstruktur und es gibt normalerweise keine Join-Operationen. Es bietet Leistungsvorteile, die relationale Datenbanken im Hinblick auf den Zugriff auf große Datenmengen nicht erreichen können.
Zu den Hauptmerkmalen gehören:
1||| unstrukturierter Speicher
2||| Basierend auf einem mehrdimensionalen relationalen Modell
3||| Haben Sie spezifische Nutzungsszenarien
Gängige nicht-relationale Datenbanken sind unterteilt in:
1||| Schlüsselwertdatenbank
Ähnlich wie Hash-Tabellen, die in traditionellen Sprachen verwendet werden. Sie können die Datenbank nach Schlüssel hinzufügen, abfragen oder löschen, da durch den Zugriff auf den Schlüssel-Primärschlüssel eine hohe Leistung und Skalierbarkeit erzielt wird. Für Informationssysteme sind die Vorteile des Schlüssel/Wert-Typs Einfachheit, einfache Bereitstellung und hohe Parallelität.
2||| Spaltenorientierte Datenbank
Speichern Sie Daten in Spaltenfamilien. Beispielsweise werden häufig der Name und das Alter einer Person abgefragt, anstatt das Gehalt. In diesem Fall werden der Name und das Alter in einer Spaltenfamilie und das Gehalt in einer anderen Spaltenfamilie platziert. Diese Art von Datenbank wird normalerweise für die verteilte Speicherung großer Datenmengen verwendet.
3||| Dokumentorientierte Datenbank
Die Dokumentdatenbank kann als aktualisierte Version der Schlüsselwertdatenbank betrachtet werden, die die Verschachtelung von Schlüsselwerten ermöglicht und deren Abfrageeffizienz höher ist als die der Schlüsselwertdatenbank. Dokumentorientierte Datenbanken speichern Daten in Form von Dokumenten.
4||| Graphdatenbank
Ermöglicht Benutzern das Speichern von Daten als Diagramme. Entitäten fungieren als Eckpunkte und Beziehungen zwischen Entitäten fungieren als Kanten.
4. Datenbank
Herkömmlichen Datenbanksystemen fehlen markthistorische Dateninformationen, die für die Entscheidungsanalyse erforderlich sind, da herkömmliche Datenbanken im Allgemeinen nur aktuelle oder aktuelle Dateninformationen speichern. Um den Vorhersage- und Entscheidungsanalysebedarf von Managern mittlerer und hoher Ebene zu erfüllen, wurde auf der Grundlage traditioneller Datenbanken eine Datenumgebung – ein Data Warehouse – erstellt, das den Vorhersage- und Entscheidungsanalysebedarf erfüllen kann.
Zu den grundlegenden Konzepten im Zusammenhang mit Data Warehouse gehören:
1||| Extrahieren/Transformation/Laden, ETL
Der Benutzer extrahiert alle Daten aus der Datenquelle und nach der Datenbereinigung und -konvertierung werden die Daten schließlich gemäß dem vordefinierten Data Warehouse-Modell in das Data Warehouse geladen.
2||| Metadaten
Daten über Daten beziehen sich auf Schlüsseldaten im Zusammenhang mit Datenquellendefinitionen, Zieldefinitionen, Konvertierungsregeln usw., die während des Data Warehouse-Erstellungsprozesses generiert werden. Metadaten enthalten auch geschäftliche Informationen über die Bedeutung der Daten. Typische Metadaten umfassen: die Struktur der Data-Warehouse-Tabelle, die Attribute der Data-Warehouse-Tabelle, die Quelldaten des Data-Warehouse (Aufzeichnungssystem), die Zuordnung vom Aufzeichnungssystem zum Data-Warehouse, die Spezifikation des Datenmodells, die Extraktion von Protokollen und der Nutzen des Zugriffs auf die Daten.
3||| Die Granularität
Der Grad der Granularität oder Vollständigkeit der im Data Warehouse eines Data Warehouse gespeicherten Daten. Je höher der Verfeinerungsgrad, desto kleiner der Granularitätsgrad; umgekehrt gilt: Je niedriger der Verfeinerungsgrad, desto größer der Granularitätsgrad.
4||| Segmentierung
Daten mit derselben Struktur werden in mehrere physische Dateneinheiten unterteilt. Jede Dateneinheit unterliegt genau einer Partition.
5||| Datenmarkt
Kleines Data Warehouse auf Abteilungs- oder Arbeitsgruppenebene.
6||| Betriebsdatenspeicher (ODS)
Eine Datensammlung, die die täglichen globalen Anwendungen einer Organisation unterstützen kann, ist eine neue Datenumgebung, die sich von der DB unterscheidet, und ist eine Hybridform, die nach der DW-Erweiterung erhalten wird. Es weist vier grundlegende Merkmale auf: themenorientiert, integriert, variabel und aktuell oder nahezu aktuell.
7||| Datenmodell
Logische Datenstruktur, einschließlich der von einem Datenbankverwaltungssystem bereitgestellten Operationen und Einschränkungen für eine effiziente Datenbankverarbeitung; ein System zur Darstellung von Daten.
8||| Künstliche Beziehung
Eine Entwurfstechnik, die 1-1 verwendet, um referenzielle Integrität in einer Systemumgebung zur Entscheidungsunterstützung darzustellen.
Ein Data Warehouse ist eine themenorientierte, integrierte, nichtflüchtige, zeitlich veränderliche Sammlung von Daten zur Unterstützung von Managemententscheidungen.
Die Architektur
1||| Datenquelle
Es ist die Grundlage des Data Warehouse-Systems und die Datenquelle des gesamten Systems. Umfasst normalerweise organisationsinterne und organisationsexterne Informationen. Zu den internen Informationen gehört die Speicherung verschiedener Geschäftsverarbeitungsdaten und verschiedener Dokumentdaten im relationalen Datenbankverwaltungssystem. Zu den externen Informationen zählen verschiedene Gesetze und Vorschriften, Marktinformationen, Wettbewerbsinformationen usw.
2||| Datenspeicherung und -verwaltung
Es ist der Kern des gesamten Data Warehouse-Systems. Die Organisations- und Verwaltungsmethode des Data Warehouse bestimmt, dass es sich von herkömmlichen Datenbanken unterscheidet, und bestimmt auch die Darstellung externer Daten. Extrahieren, verarbeiten und integrieren Sie Daten aus vorhandenen Geschäftssystemen effektiv und organisieren Sie sie nach Themen. Data Warehouses können je nach Umfang der Datenabdeckung in Data Warehouses auf Organisationsebene und Data Warehouses auf Abteilungsebene (oft als Data Marts bezeichnet) unterteilt werden.
3||| Server für die Online-Analyseverarbeitung (On-LineAnalyticProcessing, OLAP).
OLAP integriert effektiv die für die Analyse erforderlichen Daten und organisiert sie nach mehrdimensionalen Modellen, um Analysen aus mehreren Blickwinkeln und auf mehreren Ebenen durchzuführen und Trends zu entdecken. Seine spezifische Implementierung kann unterteilt werden in: OLAP (Relational OLAP, ROLAP) basierend auf relationaler Datenbank, OLAP (Multidimensional OLAP, MOLAP) basierend auf mehrdimensionaler Datenorganisation und OLAP (Hybrid OLAP, HOLAP) basierend auf hybrider Datenorganisation. ROLAP-Basisdaten und aggregierte Daten werden in RDBMS gespeichert; MOLAP-Basisdaten und aggregierte Daten werden in mehrdimensionalen Datenbanken gespeichert; HOLAP-Basisdaten werden im relationalen Datenbankverwaltungssystem (RDBMS) gespeichert, und aggregierte Daten werden in einer mehrdimensionalen Datenbank gespeichert.
4||| Front-End-Tools
Zu den Front-End-Tools gehören hauptsächlich verschiedene Abfragetools, Berichtstools, Analysetools, Data-Mining-Tools und verschiedene Anwendungsentwicklungstools basierend auf Data Warehouses oder Data Marts. Darunter sind Datenanalysetools hauptsächlich auf OLAP-Server ausgerichtet, während Berichtstools und Data-Mining-Tools hauptsächlich auf Data Warehouses ausgerichtet sind.
v. Informationssicherheit
i. Zu den häufigsten Problemen der Informationssicherheit gehören vor allem: Verbreitung von Computerviren, Eindringen von Schadsoftware, Hackerangriffe, Einsatz von Computerkriminalität, Verbreitung illegaler Informationen im Internet, Verlust der Privatsphäre usw. Mit der weit verbreiteten Anwendung von Informationstechnologien der neuen Generation wie dem Internet der Dinge, Cloud Computing, künstlicher Intelligenz und Big Data steht auch die Informationssicherheit vor neuen Problemen und Herausforderungen.
ii. Grundlagen der Informationssicherheit
Informationssicherheitsattribute
1. Vertraulichkeit
Bedeutung
Die Eigenschaft, dass Informationen nicht an unbefugte Personen, Organisationen und Prozesse weitergegeben oder von diesen verwendet werden.
Stellt sicher, dass die übertragenen Daten nur vom vorgesehenen Empfänger gelesen werden
Implementierungsmethode
1||| Verschlüsselung
2||| Zugangskontrolle
3||| Informationssteganographie
2. Integrität
Bedeutung
„Schutz der korrekten und vollständigen Beschaffenheit des Vermögenswerts.“
Stellen Sie sicher, dass es sich bei den empfangenen Daten um die gesendeten Daten handelt und dass die Daten nicht geändert werden dürfen.
Drei Aspekte der Integritätsprüfung:
1||| Blockieren Sie Änderungen durch Unbefugte
2||| Verhindern Sie, dass autorisierte Personen unbefugte Änderungen vornehmen, beispielsweise durch Missbrauch
3||| Stellen Sie sicher, dass die Daten nicht geändert wurden. Dies erfordert eine Überprüfung
3. Verfügbarkeit
Bedeutung
Funktionen, auf die autorisierte Stellen bei Bedarf zugreifen und diese nutzen können.
Stellen Sie sicher, dass die Daten bei Bedarf verfügbar sind.
Informationssicherheits-Triade = Informationssicherheitsziele
4. Andere Attribute und Ziele
(1) Authentizität
(2) Überprüfbarkeit
(3) Nichtabstreitbarkeit
(4) Zuverlässigkeit
Die Sicherheit von Informationssystemen kann in vier Ebenen unterteilt werden:
(1) Gerätesicherheit
Die Sicherheit der Informationssystemausrüstung ist das Hauptproblem der Informationssystemsicherheit. Die Gerätesicherheit von Informationssystemen ist die materielle Grundlage für die Sicherheit von Informationssystemen. Neben Hardwaregeräten sind auch Softwaresysteme Geräte, und die Sicherheit von Softwaregeräten muss ebenfalls gewährleistet sein.
hauptsächlich umfassen
1||| Stabilität der Ausrüstung
Die Wahrscheinlichkeit, dass das Gerät innerhalb eines bestimmten Zeitraums nicht ausfällt.
2||| Zuverlässigkeit der Ausrüstung
Die Wahrscheinlichkeit, dass das Gerät seine Aufgaben innerhalb eines bestimmten Zeitraums normal ausführen kann.
3||| Verfügbarkeit der Ausrüstung
Die Wahrscheinlichkeit, dass das Gerät jederzeit für den normalen Gebrauch bereit ist.
(2) Datensicherheit
Selbst wenn die Ausrüstung des Informationssystems nicht beschädigt ist, kann in vielen Fällen die Datensicherheit beeinträchtigt sein, beispielsweise durch Datenlecks, Datenmanipulation usw. Da Verhaltensweisen, die die Datensicherheit gefährden, weitgehend verborgen bleiben und die Benutzer von Datenanwendungen sich ihrer häufig nicht bewusst sind, sind sie sehr schädlich.
Zu seinen Sicherheitseigenschaften gehören
1||| Geheimhaltung
2||| Integrität
3||| Verfügbarkeit
(3) Inhaltssicherheit
Inhaltssicherheit ist eine Voraussetzung für Informationssicherheit auf politischer, rechtlicher und moralischer Ebene.
Inhaltssicherheit umfasst
1||| Der Informationsgehalt ist politisch gesund.
2||| Der Inhalt der Informationen entspricht den nationalen Gesetzen und Vorschriften.
3||| Der Informationsinhalt entspricht den hohen moralischen Standards der chinesischen Nation.
Zur allgemein definierten Inhaltssicherheit gehört auch
1||| Inhalte vertraulich
2||| Schutz geistigen Eigentums
3||| Verstecken von Informationen und Schutz der Privatsphäre
Wenn die Daten ungesunde, illegale und unethische Inhalte enthalten, können sie nicht als sicher bezeichnet werden, selbst wenn sie vertraulich sind und nicht manipuliert wurden.
(4) Verhaltenssicherheit
Datensicherheit ist im Wesentlichen eine statische Sicherheit, während Verhaltenssicherheit eine dynamische Sicherheit ist.
enthalten
1||| Verhaltensgeheimnis:
Der Ablauf und die Ergebnisse des Verhaltens dürfen die Vertraulichkeit der Daten nicht gefährden. Bei Bedarf sollten auch der Ablauf und die Ergebnisse von Maßnahmen geheim gehalten werden.
2||| Verhaltensintegrität:
Der Prozess und die Ergebnisse des Verhaltens dürfen die Integrität der Daten nicht gefährden, und der Prozess und die Ergebnisse des Verhaltens werden erwartet.
3||| Kontrollierbarkeit des Verhaltens:
Fähigkeit zu erkennen, zu kontrollieren oder zu korrigieren, wenn Verhaltensprozesse von den Erwartungen abweichen.
Bei der Verhaltenssicherheit steht die Prozesssicherheit im Vordergrund, was sich darin widerspiegelt, dass die koordinierten Arbeitsabläufe (Ausführungssequenzen) der Hardwaregeräte, Softwaregeräte und Anwendungssysteme, aus denen das Informationssystem besteht, nur so den Erwartungen des Systemdesigns gerecht werden können Die Gesamtsicherheit des Informationssystems muss gewährleistet sein.
iii. Verschlüsselung und Entschlüsselung
1. Um die Sicherheit der Informationen zu gewährleisten, muss die Informationsverschlüsselungstechnologie verwendet werden, um die Informationen zu verschleiern, damit illegale Informationsdiebe die wahre Bedeutung der Informationen nicht verstehen können. Der rechtmäßige Eigentümer der Informationen kann die Signatur verwenden, um die Integrität der Informationen zu überprüfen die Information. Verschlüsselungsalgorithmen werden zur Authentifizierung, Identifizierung und Bestätigung der Identität von Informationsbenutzern verwendet, um die Verwendung von Informationen zu kontrollieren.
2. Die Verschlüsselungstechnologie besteht aus zwei Elementen: Algorithmus und Schlüssel. Das kryptografische System der Schlüsselverschlüsselungstechnologie ist in ein symmetrisches Schlüsselsystem und ein asymmetrisches Schlüsselsystem unterteilt. Dementsprechend werden Datenverschlüsselungstechnologien in zwei Kategorien unterteilt, nämlich symmetrische Verschlüsselung (Private-Key-Verschlüsselung) und asymmetrische Verschlüsselung (Liter-Key-Verschlüsselung). Die symmetrische Verschlüsselung wird normalerweise durch den Data Encryption Standard (DES)-Algorithmus dargestellt, und die asymmetrische Verschlüsselung wird normalerweise durch den RSA-Algorithmus (Rivest Shamir Adleman) dargestellt. Der Verschlüsselungsschlüssel und der Entschlüsselungsschlüssel der symmetrischen Verschlüsselung sind gleich, während die Verschlüsselungs- und Entschlüsselungsschlüssel der asymmetrischen Verschlüsselung unterschiedlich sind. Der Verschlüsselungsschlüssel kann veröffentlicht werden, der Entschlüsselungsschlüssel muss jedoch geheim gehalten werden.
3. Symmetrische Verschlüsselungstechnologie
Bei der symmetrischen Verschlüsselung kommt die Kodierungstechnologie der symmetrischen Kryptografie zum Einsatz, die sich dadurch auszeichnet, dass für die Dateiverschlüsselung und -entschlüsselung derselbe Schlüssel verwendet wird. Beide Parteien, die die Informationen erhalten, müssen den Schlüssel sowie den Verschlüsselungs- und Entschlüsselungsalgorithmus im Voraus kennen und die Schlüssel sind gleich. Anschließend werden die Daten verschlüsselt und entschlüsselt. Zur Verschlüsselung sensibler Daten und anderer Informationen werden symmetrische Verschlüsselungsalgorithmen verwendet. Symmetrische Verschlüsselungsalgorithmen sind einfach und schnell zu verwenden, haben kurze Schlüssel und sind schwer zu entschlüsseln.
4. Asymmetrische Verschlüsselungstechnologie
Die Grundidee der Public-Key-Kryptographie besteht darin, den Schlüssel K der herkömmlichen Verschlüsselung in den Verschlüsselungsschlüssel Ke und den Entschlüsselungsschlüssel Kd zu teilen. Der Verschlüsselungsschlüssel Ke wird zur Steuerung der Verschlüsselung verwendet, und der Entschlüsselungsschlüssel Kd wird verwendet um die Entschlüsselung zu kontrollieren, selbst wenn Ke öffentlich gemacht wird, wird Kd weder offengelegt, noch wird dadurch die Sicherheit des Passworts gefährdet. Da Ke öffentlich und nur Kd geheim ist, überwindet es grundsätzlich die Schwierigkeit der Schlüsselverteilung in der traditionellen Kryptographie. Da die RSA-Verschlüsselung sowohl für die Verschlüsselung als auch für digitale Signaturen verwendet werden kann, ist sie sicher und leicht zu verstehen, sodass die RSA-Verschlüsselung zur am häufigsten verwendeten Verschlüsselung mit öffentlichem Schlüssel geworden ist.
5. Hash-Funktion
Die Hash-Funktion ordnet eine Nachricht M beliebiger Länge einem Hash-Code fester Länge zu, der auch Nachrichten-Digest genannt wird. Sie ist eine Funktion aller Nachrichtenbits und verfügt über Funktionen zur Fehlerprüfung, d. h. zur Änderung eines oder mehrerer Bits der Nachricht , Alles wird zu Änderungen im Hash-Code führen. Während des Authentifizierungsprozesses hängt der Absender den Hash-Code an die zu sendende Nachricht an und sendet ihn an den Empfänger. Der Empfänger authentifiziert die Nachricht durch Neuberechnung des Hash-Codes und realisiert so die Funktionen der Vertraulichkeit, Nachrichtenauthentifizierung und digitalen Signatur.
6. Digitale Unterschrift
Eine Signatur ist eine Information, die die Identität der Partei und die Echtheit der Daten nachweist. Im Informationsumfeld sollten bei der Transaktionsverarbeitung auf Basis des Netzwerks als Grundlage für die Informationsübertragung alle an der Transaktionsverarbeitung beteiligten Parteien elektronische Signaturen, also digitale Signaturen (Digital Signature), verwenden. Derzeit gibt es in einigen Ländern rechtliche Unterstützung für digitale Signaturen.
Ein vollständiges digitales Signatursystem sollte die folgenden drei Bedingungen erfüllen:
1||| Der Unterzeichner kann seine Unterschrift nachträglich nicht mehr widerrufen.
2||| Niemand sonst kann die Unterschrift fälschen.
3||| Wenn die Parteien die Echtheit einer Unterschrift bestreiten, können sie deren Echtheit bestätigen, indem sie die Unterschrift vor einem unparteiischen Schiedsrichter überprüfen.
Mithilfe der RSA-Kryptografie können digitale Signaturen und Datenverschlüsselung gleichzeitig erreicht werden.
7. Zertifizierung
Bei der Authentifizierung, auch Identifizierung und Bestätigung genannt, wird überprüft, ob etwas seinen Namen verdient oder gültig ist.
Der Unterschied zwischen Authentifizierung und Verschlüsselung besteht darin, dass die Verschlüsselung dazu dient, die Vertraulichkeit von Daten zu gewährleisten und passive Angriffe durch Gegner wie Abfangen, Abhören usw. zu verhindern, während die Authentifizierung dazu dient, die Authentizität des Absenders und Empfängers der Nachricht sicherzustellen die Integrität der Nachricht zu verhindern. Die Authentifizierung ist in vielen Anwendungssystemen oft die erste Sicherheitsmaßnahme und daher äußerst wichtig.
Zu den in Authentifizierungssystemen häufig verwendeten Parametern gehören Passwörter, Identifikatoren, Schlüssel, Token, Smartcards, Fingerabdrücke, visuelle Muster usw.
Authentifizierungs- und digitale Signaturtechnologien sind beides Maßnahmen zur Gewährleistung der Datenauthentizität, es gibt jedoch offensichtliche Unterschiede zwischen den beiden:
1||| Die Authentifizierung basiert immer auf vertraulichen Daten, die sowohl vom Sender als auch vom Empfänger geteilt werden, um die Authentizität des zu authentifizierenden Objekts zu überprüfen, während die Daten, die zur Überprüfung der Signatur in einer digitalen Signatur verwendet werden, öffentlich sind.
2||| Die Authentifizierung ermöglicht es den sendenden und empfangenden Parteien, die Authentizität der anderen zu überprüfen, und ermöglicht es Dritten nicht, die Authentizität zu überprüfen, während digitale Signaturen sowohl den sendenden und empfangenden Parteien als auch einem Dritten die Überprüfung ermöglichen.
3||| Digitale Signaturen können vom Absender nicht zurückgewiesen werden, können vom Empfänger nicht gefälscht werden und bieten die Möglichkeit, Streitigkeiten vor einem Notar beizulegen, während eine Zertifizierung nicht unbedingt dazu in der Lage ist.
iv. Sicherheit von Informationssystemen
1. Informationssysteme bestehen im Allgemeinen aus Computersystemen, Netzwerksystemen, Betriebssystemen, Datenbanksystemen und Anwendungssystemen.
2. Dementsprechend umfasst die Sicherheit von Informationssystemen hauptsächlich
(1) Sicherheit von Computerausrüstung
Die Gewährleistung des sicheren Betriebs von Computergeräten ist einer der wichtigsten Aspekte der Sicherheit von Informationssystemen
Dazu gehört neben Integrität, Vertraulichkeit und Verfügbarkeit auch
1||| Ablehnungswiderstand
Unter Anti-Repudiation versteht man die Funktion, die sicherstellt, dass Nutzer die Generierung, Ausgabe und den Empfang von Informationen im Nachhinein nicht verweigern können. Anti-Ablehnungsdienste werden im Allgemeinen durch digitale Signaturen bereitgestellt.
2||| Überprüfbarkeit
Mit der Audit-Methode können detaillierte Audit-Trails zum Arbeitsprozess des Computerinformationssystems erstellt und gleichzeitig Audit-Aufzeichnungen und Audit-Protokolle gespeichert werden, anhand derer Probleme erkannt werden können.
3||| Zuverlässigkeit
Die Wahrscheinlichkeit, dass ein Computer unter bestimmten Bedingungen und innerhalb einer bestimmten Zeit eine vorgegebene Funktion ausführt.
(2) Internet-Sicherheit
Als Hauptträger der Sammlung, Speicherung, Verteilung, Übertragung und Anwendung von Informationen spielt die Sicherheit des Netzwerks eine entscheidende oder sogar entscheidende Rolle für die Sicherheit der gesamten Informationen. Die Netzwerkumgebung schafft einen idealen Raum für Informationsaustausch, Informationsaustausch und Informationsdienste. Die inhärenten Offenheits-, Interaktivitäts- und Dezentralisierungsmerkmale des Internets ermöglichen zwar den offenen, flexiblen und schnellen Austausch von Informationen, werfen aber auch Probleme im Zusammenhang mit der Netzwerksicherheit auf.
Probleme im Zusammenhang mit der Netzwerksicherheit:
1||| Informationslecks, Informationsverschmutzung, Informationen sind nicht leicht zu kontrollieren
2||| Informationsleck, Informationszerstörung, Informationsverletzung und Informationspenetration
3||| Die Website erlitt böswillige Angriffe, die zu Schäden und Lähmungen führten
Zu den häufigsten Cyber-Bedrohungen gehören:
1||| Netzwerküberwachung
2||| Passwort-Angriff
3||| Denial-of-Service-Angriffe (DoS) und Distributed-Denial-of-Service-Angriffe (DDos).
4||| Schwachstellenangriff
5||| Botnetz
6||| Phishing
7||| Internet-Spoofing
8||| Sicherheitsbedrohungen für Websites: SQL-Injection-Angriffe, Cross-Site-Angriffe, Sidenote-Angriffe usw.
9||| Advanced Persistent Threat (APT)
(3) Sicherheit des Betriebssystems
Entsprechend den Erscheinungsformen von Sicherheitsbedrohungen handelt es sich um folgende:
1||| Computer Virus
2||| Logikbombe
3||| Trojanisches Pferd
4||| Hintertür: bezieht sich auf einen illegalen Code, der in das Betriebssystem eingebettet ist
5||| Verdeckter Kanal: ein nicht öffentlicher Informationsleckpfad im System, der nicht durch Sicherheitsrichtlinien kontrolliert wird, gegen Sicherheitsrichtlinien verstößt und nicht öffentlich ist.
(4) Sicherheit des Datenbanksystems
Ein Datenbanksystem ist eine Plattform zur Speicherung, Verwaltung, Nutzung und Pflege von Daten. Datenbanksicherheit bezieht sich hauptsächlich auf die Sicherheit von Datenbankverwaltungssystemen, und ihre Sicherheitsprobleme können als Sicherheitsprobleme für Daten betrachtet werden, die eher zur Speicherung als zur Übertragung verwendet werden.
(5) Sicherheit des Anwendungssystems
Die Sicherheit des Anwendungssystems basiert auf der Sicherheit der Computerausrüstung, der Netzwerksicherheit und der Datenbanksicherheit. Gleichzeitig werden wirksame Antiviren- und Manipulationsschutzmaßnahmen sowie Versionsprüfung und -prüfung eingesetzt, um die Rechtmäßigkeit und Integrität der systemeigenen Ausführungsprogramme und Konfigurationsdateien sicherzustellen, die äußerst wichtige Sicherheitsmaßnahmen darstellen.
v. Netzwerksicherheitstechnologie
1. Firewall
Eine Firewall ist ein Filtermechanismus, der an der Grenze zwischen internen und externen Netzwerken aufgebaut ist. Das interne Netzwerk gilt als sicher und vertrauenswürdig, während das externe Netzwerk (normalerweise das Internet) als unsicher und nicht vertrauenswürdig gilt. Firewalls können den Datenverkehr innerhalb und außerhalb des Netzwerks überwachen, sodass nur sichere, genehmigte Informationen eindringen und gleichzeitig Sicherheitsbedrohungen innerhalb des Unternehmens blockiert werden. Zu den wichtigsten Implementierungstechnologien von Firewalls gehören: Paketfilterung, Anwendungs-Gateway und Proxy-Dienste usw.
2. Erkennung und Verhinderung von Einbrüchen
Es gibt zwei Haupttypen von Technologien zur Erkennung und Verhinderung von Eindringlingen: Intrusion Detection System (IDS) und Intrusion Prevention System (IPS).
Das Intrusion Detection System (IDS) konzentriert sich auf die Überwachung des Netzwerksicherheitsstatus. Durch die Überwachung von Netzwerk- oder Systemressourcen sucht es nach Verhaltensweisen, die gegen Sicherheitsrichtlinien verstoßen, oder nach Spuren von Angriffen und gibt Alarme aus. Daher ist die überwiegende Mehrheit der IDS-Systeme passiv.
Intrusion-Prevention-Systeme (IPS) bieten in der Regel aktiven Schutz und konzentrieren sich auf die Kontrolle des Einbruchverhaltens. Es ist darauf ausgelegt, Einbruchsaktivitäten und anstößigen Netzwerkverkehr im Voraus abzufangen, um Verluste zu vermeiden. IPS erreicht diese Funktion, indem es ihn direkt in den Netzwerkverkehr einbettet, d internes System. Auf diese Weise können das fehlerhafte Paket sowie alle nachfolgenden Pakete aus demselben Datenfluss im IPS-Gerät bereinigt werden.
3. virtuelles privates Netzwerk
VPN (Virtual Private Network) ist eine Technologie, die auf ISP (Internet Service Provider) und andere NSP (Network Service Provider) angewiesen ist, um einen dedizierten und sicheren Datenkommunikationskanal in einem öffentlichen Netzwerk einzurichten. VPN kann als Anwendung von Verschlüsselungs- und Authentifizierungstechnologie bei der Netzwerkübertragung betrachtet werden.
Die VPN-Netzwerkverbindung besteht aus drei Teilen: Client, Übertragungsmedium und Server. Die VPN-Verbindung verwendet keine physischen Übertragungsmedien, sondern eine Technologie namens „Tunnel“ als Übertragungsmedium. Dieser Tunnel wird auf einem öffentlichen Netzwerk oder einem privaten Netzwerk aufgebaut An. Zu den gängigen Tunneltechnologien gehören: Point-to-Point Tunneling Protocol (PPTP), Layer 2 Tunneling Protocol (L2TP) und IP Security Protocol (IPSec).
4. Sicherheitsscan
Zu den Sicherheitsscans gehören Schwachstellenscans, Portscans, Passwortscans (Erkennung schwacher Passwörter) usw.
Sicherheitsscans können durch die Anwendung einer Software namens „Scanner“ durchgeführt werden. Der Scanner ist eines der effektivsten Tools zur Netzwerksicherheitserkennung. Er kann Sicherheitslücken in Remote- oder lokalen Hosts und Netzwerksystemen sowie vorhandene Systemschwachstellen automatisch erkennen . .
5. Netzwerk-Honeypot-Technologie
Die Honeypot-Technologie ist eine aktive Verteidigungstechnologie und eine wichtige Entwicklungsrichtung der Intrusion-Detection-Technologie. Sie ist auch eine Falle, um Angreifer zu „fangen“. Ein Honeypot-System ist ein Täuschsystem, das Schwachstellen enthält und Angreifern ein leichtes Ziel bietet, indem es einen oder mehrere anfällige Hosts und Dienste simuliert. Angreifer verschwenden oft Zeit mit Honeypots und verzögern so Angriffe auf ihre eigentlichen Ziele. Aufgrund der Eigenschaften und Prinzipien der Honeypot-Technologie kann sie wichtige Informationen und nützliche Hinweise für die Einbruchsforensik liefern und es so einfacher machen, das Angriffsverhalten des Eindringlings zu untersuchen.
vi. Technologie zum Schutz vor Web-Bedrohungen
1. Web-Zugriffskontrolltechnologie
Die Zugriffskontrolle ist die Hauptstrategie zur Verhinderung und zum Schutz der Website-Sicherheit. Ihre Hauptaufgabe besteht darin, sicherzustellen, dass illegale Besucher nicht auf Netzwerkressourcen zugreifen.
2. Single-Sign-On-Technologie (SSO).
Bereitstellung einer zentralisierten und einheitlichen Identitätsauthentifizierung für Anwendungssysteme, um „One-Point-Login, mehrere Zugriffspunkte“ zu erreichen.
3. Anti-Manipulationstechnologie für Webseiten
(1) Zeitabfragetechnologie
Verwenden Sie das Webseitenerkennungsprogramm, um die zu überwachende Webseite per Abfrage auszulesen, sie mit der echten Webseite zu vergleichen, um die Integrität des Webseiteninhalts festzustellen, und alarmieren Sie die manipulierte Webseite und stellen Sie sie wieder her.
(2) Kern eingebettete Technologie
Die sogenannte eingebettete Kerntechnologie ist die Passwort-Wasserzeichen-Technologie. Diese Technologie bettet das Manipulationserkennungsmodul in die Webserver-Software ein. Es führt Integritätsprüfungen durch, wenn jedes Netzwerkmitglied das Netzwerk verlässt, blockiert manipulierte Webseiten in Echtzeit und bietet Alarme und Wiederherstellung.
(3) Ereignisauslösende Technologie
Dabei wird das Dateisystem oder die Treiberschnittstelle des Betriebssystems verwendet, um die Rechtmäßigkeit bei Änderungen an der Webseitendatei zu überprüfen und illegale Vorgänge zu alarmieren und wiederherzustellen.
(4) Dateifilter-Treibertechnologie
Es handelt sich um eine einfache, effiziente, sichere und äußerst manipulationssichere Technologie. Durch die ereignisauslösende Methode werden die Dateiinhalte in allen Ordnern des Webservers mit den zugrunde liegenden Dateiattributen verglichen und der integrierte Hash-Schnellalgorithmus wird zur Echtzeitüberwachung verwendet, wenn die Attributänderungen gefunden werden Der Sicherungspfadordner wird in die Überwachungsdatei kopiert. Der entsprechende Dateispeicherort des Ordners macht die manipulierte Seite für die Öffentlichkeit unsichtbar.
4. Sicherheit von Webinhalten
Das Inhaltssicherheitsmanagement ist in drei Technologien unterteilt: E-Mail-Filterung, Web-Filterung und Anti-Spyware.
vii. Firewall der nächsten Generation
1. Next Generation Firewall (NGFW) ist eine Hochleistungs-Firewall, die umfassend auf Bedrohungen auf Anwendungsebene reagieren kann. Durch detaillierte Einblicke in Benutzer, Anwendungen und Inhalte im Netzwerkverkehr und mit Hilfe einer neuen leistungsstarken heterogenen Single-Path-Parallelverarbeitungs-Engine kann NGFW Benutzern einen effektiven integrierten Sicherheitsschutz auf Anwendungsebene bieten und so Benutzern dabei helfen Führen Sie Geschäfte sicher durch und vereinfachen Sie Ihre Netzwerksicherheitsarchitektur.
2. Mit der weit verbreiteten Verwendung von SOA und Web2.0 in Informationssystemen wird mehr Datenverkehr nur über wenige Ports und eine begrenzte Anzahl von Protokollen abgewickelt, was bedeutet, dass die Korrelation zwischen port-/protokollbasierten Sicherheitsrichtlinien und der Effizienz immer geringer wird und niedriger, und herkömmliche Firewalls sind grundsätzlich nicht in der Lage, Bedrohungen zu erkennen, die Botnetze als Übertragungswege nutzen.
3. Auf der Grundlage der herkömmlichen Firewall-Paketfilterung, Netzwerkadressübersetzung (NAT), Protokollstatusprüfung und VPN-Funktionen fügt NGFW die folgenden neuen Funktionen hinzu:
(1) Intrusion Prevention System (IPS)
Die DPI-Funktion von NGFW umfasst IPS
(2) Visualisierung basierend auf Anwendungserkennung
NGFW blockiert oder lässt Pakete zu, je nachdem, wohin sie gehen. Dazu analysieren sie den Datenverkehr auf Schicht 7 (der Anwendungsschicht). Herkömmliche Firewalls verfügen nicht über diese Funktion, da sie nur Layer-3- und Layer-4-Verkehr analysieren.
(3) Intelligente Firewall:
Verschiedene Arten von Informationen außerhalb der Firewall können gesammelt und zur Verbesserung von Blockierungsentscheidungen oder als Grundlage für die Optimierung von Blockierungsregeln verwendet werden. Verwenden Sie beispielsweise die Verzeichnisintegration, um eine Blockierung basierend auf der Benutzeridentität oder eine Blacklist und Whitelist basierend auf der Adresse durchzusetzen.
viii. Technologie zur Analyse des Sicherheitsverhaltens
Herkömmliche Sicherheitsprodukte, -technologien und -lösungen basieren im Wesentlichen auf dem Regelabgleich bekannter Funktionen zur Analyse und Erkennung. Basierend auf Merkmalen, Regeln und menschlicher Analyse weist die Erkennungsanalyse mit „Merkmalen“ als Kern Sicherheitslücken, Hystereseeffekte, eine einfache Umgehung und Schwierigkeiten bei der Anpassung an die Netzwerkrealität offensiver und defensiver Konfrontationen sowie eine sich schnell verändernde Organisation auf Umwelt und externe Bedrohungen und andere Probleme. Obwohl die meisten Angriffe zwar von außerhalb des Unternehmens ausgehen, werden schwere Schäden häufig von Insidern verursacht. Nur durch die Bewältigung von Insider-Bedrohungen kann die Informations- und Netzwerksicherheit gewährleistet werden.
User and Entity Behavior Analytics (UEBA) bietet Benutzerprofilierung und Anomalieerkennung auf der Grundlage verschiedener Analysemethoden und kombiniert grundlegende Analysemethoden (unter Verwendung von Signaturregeln, Mustervergleich, einfachen Statistiken, Schwellenwerten usw.) und erweiterte Analysemethoden (überwachtes und unüberwachtes maschinelles Lernen). usw.), verwenden Sie Paketanalysen, um Benutzer und andere Entitäten (Hosts, Anwendungen, Netzwerke, Datenbanken usw.) zu bewerten und Aktivitäten im Zusammenhang mit Standardprofilen oder abnormalem Verhalten von Benutzern oder Entitäten zu potenziellen Ereignissen zu entdecken.
UEBA ist ein komplettes System, das Inspektionsteile wie Strafverfolgung und Technik sowie Benutzeraustausch und Antiblockiersysteme wie die Sortierung und Anpassung der Risikobewertung von Benutzern und Unternehmen umfasst. Aus architektonischer Sicht umfassen UEBA-Systeme normalerweise eine Datenerfassungsschicht, eine Algorithmusanalyseschicht und eine Feldbackanwendungsschicht.
ix. Situationsbewusstsein für die Netzwerksicherheit
1. Unter Network Security Situation Awareness versteht man die Erfassung, das Verständnis und die Anzeige von Sicherheitsfaktoren, die zu Veränderungen der Netzwerksituation in einer großen Netzwerkumgebung führen können, und auf dieser Grundlage die Vorhersage zukünftiger Trends bei der Entwicklung der Netzwerksicherheit. Es handelt sich um eine umgebungsbasierte, dynamische und umfassende Fähigkeit, Einblicke in Sicherheitsrisiken zu gewinnen. Auf der Grundlage von Sicherheits-Big Data werden Datenintegration, Merkmalsextraktion usw. durchgeführt und anschließend eine Reihe von Situationsbewertungsmethoden angewendet, um die Gesamtsituation des Netzwerks zu generieren und die Situationsentwicklung vorherzusagen , und Datenvisualisierungstechnologie wird verwendet, um die Situation und Situation zu kombinieren. Die vorhergesagte Situation wird dem Sicherheitspersonal angezeigt, sodass das Sicherheitspersonal den aktuellen Status des Netzwerks und die erwarteten Risiken intuitiv und bequem verstehen kann.
2. Zu den Schlüsseltechnologien für das Situationsbewusstsein der Netzwerksicherheit gehören hauptsächlich:
(1) Konvergenz- und Fusionstechnologie massiver, vielfältiger heterogener Daten
(2) Technologie zur Bewertung von Netzwerksicherheitsbedrohungen für mehrere Arten
(3) Technologie zur Beurteilung der Netzwerksicherheitslage und zur Entscheidungsunterstützung
(4) Visualisierung der Netzwerksicherheitssituation
vi. Entwicklung der Informationstechnologie
Als Grundlage der Informationstechnologie werden Computersoftware und -hardware, Netzwerke, Speicher und Datenbanken, Informationssicherheit usw. ständig weiterentwickelt und innoviert und führen den aktuellen Trend der Entwicklung der Informationstechnologie an.
In Bezug auf Computersoftware und -hardware wird sich die Computerhardwaretechnologie in Richtung ultrahoher Geschwindigkeit, ultrakleiner Größe, paralleler Verarbeitung und Intelligenz entwickeln. Computerhardwaregeräte werden immer kleiner, schneller und schneller, mit größerer Kapazität und Der Stromverbrauch wird immer geringer und die Zuverlässigkeit immer höher. Computersoftware wird immer umfangreicher und ihre Funktionen werden immer leistungsfähiger. Das Konzept „Software definiert alles“ ist zum Mainstream der aktuellen Entwicklung geworden.
Netzwerktechnisch wird die Verbindung zwischen Computernetzwerk und Kommunikationstechnik immer enger und sogar integriert. Als eine der wichtigsten Infrastrukturen des Landes ist 5G zum aktuellen Mainstream geworden und zielt auf das Internet der Dinge und Szenarien mit geringer Latenz des Narrow Band Internet of Things (NB-IoT) sowie auf verbesserte maschinenartige Kommunikation (enhanced Machine-Technologies wie z. B Type Communication (eMTC), Industrial Internet of Things (lloT) und Ultra Reliable Low Latency Communication (URLC) werden vollständig weiterentwickelt.
Im Hinblick auf Speicher und Datenbanken hat das explosionsartige Wachstum des Datenvolumens die kontinuierliche Weiterentwicklung der Datenbanktechnologie in Richtung Modellerweiterung und Architekturentkopplung gefördert.
Im Hinblick auf die Informationssicherheit wird das traditionelle Computersicherheitskonzept zu einem Computersicherheitskonzept mit dem Konzept des Trusted Computing als Kern übergehen. Die durch die Popularisierung und Anwendung des Netzwerks verursachten Veränderungen in Technologie und Anwendungsmodellen fördern die Innovation von Schlüsseltechnologien weiter für die Informationssicherheitsvernetzung; gleichzeitig sind die Erforschung und Formulierung von Sicherheitsstandards sowie die Integration und Integration von Informationssicherheitsprodukten und -dienstleistungen führend in der aktuellen Standardisierungs- und Integrationsentwicklung der Informationssicherheitstechnologie.
三、 Informationstechnologie und Anwendungen der neuen Generation
I. Das Internet der Dinge, Cloud Computing, Big Data, Blockchain, künstliche Intelligenz, virtuelle Realität und andere Informationstechnologien der neuen Generation sowie neue Geschäftsformate, die Informationsressourcen vollständig nutzen, sind die Haupttrends in der Entwicklung der Informatisierung und der Hauptgeschäftsbereich der Informationen Systemintegrationsbranche der Zukunft.
II. Internet der Dinge
i. Das Internet der Dinge löst hauptsächlich die Verbindung zwischen Dingen (Thing to Thing, T2T), Menschen und Dingen (Human to Thing, H2T) und Menschen und Menschen (Human to Human, H2H). Darüber hinaus führen viele Wissenschaftler häufig das Konzept von M2M ein, wenn sie das Internet der Dinge diskutieren: Es kann als Mensch zu Mensch, Mensch zu Maschine oder Maschine zu Maschine interpretiert werden.
ii. technische Grundlage
1. Die IoT-Architektur kann in drei Schichten unterteilt werden
(1) Wahrnehmungsschicht
Es besteht aus verschiedenen Sensoren, darunter Temperatursensoren, QR-Code-Tags, RFID-Tags, Lesegeräten, Kameras, GPS und anderen Sensorterminals. Die Wahrnehmungsschicht ist die Quelle für die Identifizierung von Objekten und das Sammeln von Informationen im Internet der Dinge.
(2) Netzwerkschicht
Es besteht aus verschiedenen Netzwerken, darunter dem Internet, Radio- und Fernsehnetzwerken, Netzwerkmanagementsystemen und Cloud-Computing-Plattformen. Es ist der Knotenpunkt des gesamten Internets der Dinge und für die Übertragung und Verarbeitung der von der Wahrnehmungsschicht erhaltenen Informationen verantwortlich.
(3) Anwendungsschicht
Es ist die Schnittstelle zwischen dem Internet der Dinge und den Benutzern. Es wird mit den Anforderungen der Industrie kombiniert, um intelligente Anwendungen des Internets der Dinge zu realisieren.
2. Die Industriekette des Internets der Dinge umfasst Sensoren und Chips, Ausrüstung, Netzwerkbetrieb und -dienste, Software- und Anwendungsentwicklung sowie Systemintegration. Die Technologie des Internets der Dinge hat sehr wichtige und wichtige Anwendungen in den Bereichen intelligente Netze, intelligente Logistik, intelligente Häuser, intelligenter Transport, intelligente Landwirtschaft, Umweltschutz, medizinische Gesundheit, Stadtmanagement (intelligente Städte), Finanzdienstleistungen und Versicherungen, öffentliche Sicherheit usw.
iii. Schlüsseltechnologie
1. Sensorik
Ein Sensor ist ein Erfassungsgerät, das die gemessenen Informationen „fühlen“ und die erfassten Informationen gemäß bestimmten Regeln in elektrische Signale oder andere Formen der Informationsausgabe umwandeln kann, um den Anforderungen der Informationsübertragung, -verarbeitung und -speicherung gerecht zu werden Kontrollanforderungen. Es ist die primäre Verbindung zur automatischen Erkennung und automatischen Steuerung und auch das grundlegende Mittel für das Internet der Dinge, um Informationen über die physische Welt zu erhalten.
Radio Frequency Identification (RFID) ist eine Sensortechnologie, die im Internet der Dinge eingesetzt wird und bei der Entwicklung des Internets der Dinge große Aufmerksamkeit erregt hat. RIFD kann spezifische Ziele identifizieren und zugehörige Daten über Funksignale lesen und schreiben, ohne dass ein mechanischer oder optischer Kontakt zwischen dem Identifizierungssystem und dem spezifischen Ziel hergestellt werden muss. RFID ist ein einfaches drahtloses System, das aus einem Abfragegerät (oder Lesegerät) und vielen Transpondern (oder Tags) besteht. Der Tag besteht aus einem Kopplungselement und einem Chip. Jeder Tag verfügt über einen eindeutigen elektronischen Code für eine längere Lebensdauer und wird zur Identifizierung des Zielobjekts angebracht. Er überträgt Funkfrequenzinformationen an das Lesegerät und das Lesegerät ist das Gerät, das die Informationen liest. Die RFID-Technologie lässt Objekte „sprechen“. Dies verleiht dem Internet der Dinge eine Eigenschaft: die Rückverfolgbarkeit. Das heißt, der Mensch kann jederzeit den genauen Standort von Gegenständen und deren Umgebung erfassen.
2. Sensornetzwerk
Mikroelektromechanische Systeme (MEMS) sind integrierte Mikrogerätesysteme, die aus Mikrosensoren, Mikroaktoren, Signalverarbeitungs- und Steuerschaltungen, Kommunikationsschnittstellen, Netzteilen und anderen Komponenten bestehen. Ziel ist es, die Erfassung, Verarbeitung und Ausführung von Informationen zu einem multifunktionalen Mikrosystem zu integrieren und in ein Großsystem zu integrieren, wodurch der Automatisierungs-, Intelligenz- und Zuverlässigkeitsgrad des Systems erheblich verbessert wird. MEMS erwecken gewöhnliche Objekte zu neuem Leben. Sie verfügen über eigene Datenübertragungskanäle, Speicherfunktionen, Betriebssysteme und spezielle Anwendungen und bilden so ein riesiges Sensornetzwerk.
3. Anwendungssystem-Framework
Das Internet-of-Things-Anwendungssystem-Framework ist eine vernetzte Anwendung und ein vernetzter Dienst mit intelligenter Interaktion zwischen Maschinenterminals als Kern. Es wird eine intelligente Steuerung von Objekten ermöglichen, die fünf wichtige technische Teile umfasst: Maschinen, Sensorhardware, Kommunikationsnetzwerke, Middleware und Anwendungen. Das Framework basiert auf einer Cloud-Computing-Plattform und einem intelligenten Netzwerk und kann Entscheidungen auf der Grundlage der vom Sensornetzwerk erhaltenen Daten treffen und die Verhaltenskontrolle und Rückmeldung des Objekts ändern.
iv. Anwendung und Entwicklung
Anwendungen in Infrastrukturbereichen wie Industrie, Bekleidungsindustrie, Umwelt, Transport, Logistik und Sicherheit haben die intelligente Entwicklung dieser Bereiche effektiv gefördert und ermöglichen eine rationellere Nutzung und Verteilung begrenzter Ressourcen in den Bereichen Heimtextilien, medizinische Gesundheit, Bildung: Die Anwendung von Golden Touch in der Dienstleistungsbranche, im Tourismus und in anderen Bereichen hat durch die vollständige Integration mit Sozialwissenschaften und sozialer Governance zu großen Veränderungen und Fortschritten im Dienstleistungsumfang, in den Dienstleistungsmethoden und in der Dienstleistungsqualität geführt.
III. Cloud Computing
i. Cloud Computing ist eine Form des verteilten Rechnens. In den Anfängen des Cloud Computing handelte es sich um einfaches verteiltes Rechnen, bei dem Aufgaben verteilt und Berechnungsergebnisse zusammengeführt wurden. Das aktuelle Cloud Computing ist nicht nur eine Art verteiltes Computing, sondern das Ergebnis der gemischten Entwicklung und des Sprungs von Computertechnologien wie verteiltem Computing, Utility Computing, Lastausgleich, parallelem Computing, Netzwerkspeicher, Hot-Backup-Redundanz und Virtualisierung.
ii. technische Grundlage
1. Cloud Computing ist eine internetbasierte Rechenmethode, bei der gemeinsam genutzte Softwareressourcen, Rechenressourcen, Speicherressourcen und Informationsressourcen im Netzwerk konfiguriert und bei Bedarf Online-Endgeräten und Endbenutzern bereitgestellt werden. Cloud Computing kann auch als eine verteilte Verarbeitungsarchitektur verstanden werden, die Benutzer vor zugrunde liegenden Unterschieden schützt. In einer Cloud-Computing-Umgebung sind Benutzer von den durch tatsächliche Dienste bereitgestellten Computerressourcen getrennt, und die Cloud sammelt Computergeräte und -ressourcen.
2. Bei der Nutzung von Cloud-Computing-Diensten müssen Benutzer kein spezielles Wartungspersonal beauftragen. Cloud-Computing-Dienstleister bieten ein relativ hohes Maß an Schutz für die Sicherheit von Daten und Servern. Da Cloud Computing Daten in der Cloud speichert (der Teil eines verteilten Cloud-Computing-Geräts, der Rechen- und Speicherfunktionen übernimmt), werden Geschäftslogik und zugehörige Berechnungen in der Cloud ausgeführt. Daher benötigt das Terminal nur ein gewöhnliches Gerät, das grundlegende Anwendungen erfüllen kann . .
3. Je nach der von Cloud-Computing-Diensten bereitgestellten Ressourcenebene können sie in drei Typen unterteilt werden: Infrastructure as a Service (IaaS), Platform as a Service (PaaS) und Software as a Service (SaaS).
(1) IaaS stellt Benutzern Infrastrukturdienste wie Computerleistung und Speicherplatz zur Verfügung. Dieses Servicemodell erfordert große Infrastrukturinvestitionen und langfristige Betriebs- und Managementerfahrung, und seine Rentabilität durch einfache Anmietung von Ressourcen ist begrenzt.
(2) PaaS bietet Benutzern Plattformdienste wie virtuelle Betriebssysteme, Datenbankverwaltungssysteme und Webanwendungen. Der Fokus von PaaS-Diensten liegt nicht auf direkten wirtschaftlichen Vorteilen, sondern auf dem Aufbau und der Bildung eines engen industriellen Ökosystems.
(3) SaaS bietet Benutzern Anwendungssoftware (z. B. CRM, Bürosoftware usw.), Komponenten, Workflows und andere virtualisierte Softwaredienste. SaaS nutzt im Allgemeinen Webtechnologie und SOA-Architektur, um Benutzern über das Internet mandantenfähige und anpassbare Anwendungsfunktionen bereitzustellen. Reduzieren Es reduziert die Komplexität von Software-Upgrades, Anpassungen, Betrieb und Wartung und ermöglicht es Softwareanbietern, sich von Herstellern von Softwareprodukten zu Betreibern von Anwendungsdiensten zu wandeln.
iii. Schlüsseltechnologien
1. Die Schlüsseltechnologien des Cloud Computing umfassen hauptsächlich
(1) Virtualisierungs-Technologie
Virtualisierung ist ein weit gefasster Begriff, der sich im Allgemeinen auf Computerelemente bezieht, die auf virtueller Basis und nicht auf realer Basis ausgeführt werden. Virtualisierungstechnologie kann die Kapazität von Hardware erweitern und den Neukonfigurationsprozess von Software vereinfachen. Die CPU-Virtualisierungstechnologie kann mehrere CPUs parallel mit einer einzigen CPU simulieren, sodass auf einer Plattform mehrere Betriebssysteme gleichzeitig ausgeführt werden können und Anwendungen in unabhängigen Bereichen ausgeführt werden können, ohne sich gegenseitig zu beeinträchtigen, wodurch die Effizienz der Computerarbeit erheblich verbessert wird.
Die Containertechnologie ist eine neue Virtualisierungstechnologie im neuen Sinne, die zur Kategorie der Betriebssystemvirtualisierung gehört, dh das Betriebssystem bietet Virtualisierungsunterstützung. Die derzeit beliebteste Containerumgebung ist Docker. Die Containertechnologie teilt die Ressourcen eines einzelnen Betriebssystems in isolierte Gruppen auf, um widersprüchliche Ressourcennutzungsanforderungen zwischen isolierten Gruppen besser auszugleichen. Durch die Verwendung der Containertechnologie kann die Anwendung in einer unabhängigen Ausführungsumgebung isoliert werden, wodurch der durch die Ausführung des Programms verursachte zusätzliche Verbrauch reduziert werden kann und die Anwendung fast überall auf die gleiche Weise ausgeführt werden kann.
(2) Cloud-Speichertechnologie
Die Cloud-Speichertechnologie ist eine neue Methode zur Informationsspeicherung und -verwaltung, die auf der Grundlage herkömmlicher Mediensysteme entwickelt wurde und die Software- und Hardwarevorteile von Computersystemen integriert und große Datenmengen durch eine Vielzahl von Cloud-Technologien schnell und effizient verarbeiten kann Plattformen ermöglichen tiefgreifendes Data Mining und Sicherheitsmanagement.
Als wichtiger Bestandteil der Cloud-Speichertechnologie verbessern verteilte Dateisysteme die Systemreplikation und Fehlertoleranzfunktionen und wahren gleichzeitig die Kompatibilität.
(3) Mandantenfähigkeit und Zugriffskontrollverwaltung
Dies ist eines der Kernthemen bei Cloud-Computing-Anwendungen. Die Forschung zur Cloud-Computing-Zugriffskontrolle konzentriert sich hauptsächlich auf Cloud-Computing-Zugriffskontrollmodelle, Cloud-Computing-Zugriffskontrolle auf Basis der ABE-Kryptographie, Mandantenfähigkeit und Virtualisierungs-Zugriffskontrolle in der Cloud.
Das Cloud-Computing-Zugriffskontrollmodell ist eine Methode zur Beschreibung des Sicherheitssystems gemäß bestimmten Zugriffsrichtlinien und zur Erstellung eines Sicherheitsmodells. Entsprechend den verschiedenen Funktionen des Zugriffskontrollmodells sind auch die Forschungsinhalte und -methoden unterschiedlich. Zu den gängigen gehören das aufgabenbasierte Zugriffskontrollmodell, die auf dem Attributmodell basierende Cloud-Computing-Zugriffskontrolle, die auf dem UCON-Modell basierende Cloud-Computing-Zugriffskontrolle und BLP modellbasiertes Cloud Computing usw.
Die auf dem ABE-Passwortmechanismus basierende Cloud-Computing-Zugriffskontrolle umfasst vier Parteien: Datenanbieter, vertrauenswürdige Autorisierungszentren Dritter, Cloud-Speicherserver und Benutzer. Zunächst generiert das vertrauenswürdige Autorisierungszentrum den Hauptschlüssel und die öffentlichen Parameter und übergibt den öffentlichen Systemschlüssel an den Datenanbieter. Nachdem der Datenanbieter den öffentlichen Systemschlüssel erhalten hat, verwendet er den Richtlinienbaum und den öffentlichen Systemschlüssel, um die Datei zu verschlüsseln Konvertiert den Chiffretext und die Richtlinie. Der Baum wird auf den Cloud-Server hochgeladen. Wenn ein neuer Benutzer dem System beitritt, lädt er seinen Attributsatz in das vertrauenswürdige Autorisierungszentrum hoch und sendet eine Anfrage zur Anwendung eines privaten Schlüssels Vom Benutzer übermittelter Attributsatz und Hauptschlüssel. Der private Schlüssel wird an den Benutzer übergeben. Anschließend lädt der Benutzer die gewünschten Daten herunter. Wenn sein Attributsatz der Richtlinienbaumstruktur der Chiffretextdaten entspricht, kann der Chiffretext entschlüsselt werden; andernfalls schlägt der Zugriff auf die Daten fehl.
(4) Cloud-Sicherheitstechnologie
Die Cloud-Sicherheitsforschung umfasst hauptsächlich zwei Aspekte: den Sicherheitsschutz der Cloud-Computing-Technologie selbst, einschließlich der entsprechenden Datenintegrität und -verfügbarkeit, des Datenschutzes, der Dienstverfügbarkeit usw.; Bei den Client-Benutzern wird die Internetsicherheit durch Cloud-Computing-Technologie erreicht, einschließlich Cloud-Computing-basierter Virenprävention und Trojaner-Erkennungstechnologie usw.
Was die Forschung zur Cloud-Sicherheitstechnologie betrifft, umfasst sie hauptsächlich:
1||| Cloud-Computing-Sicherheit
Es analysiert hauptsächlich die Cloud selbst und die beteiligten Anwendungsdienste und konzentriert sich dabei hauptsächlich darauf, wie die Sicherheitsisolation effektiv implementiert, die Sicherheit von Internetbenutzerdaten gewährleistet und das System effektiv vor böswilligen Netzwerkangriffen geschützt werden kann Sicherheit der Cloud-Computing-Plattform sowie Benutzerzugriffsauthentifizierung und entsprechende Prüfung und Sicherheit der Informationsübertragung.
2||| Sicherung der Cloud-Infrastruktur
Die Hauptsache besteht darin, die entsprechenden Ressourcen der entsprechenden Internet-Sicherheitsinfrastrukturausrüstung zu nutzen, um Cloud-Dienste effektiv zu optimieren, damit P&I die erwarteten Sicherheitsschutzanforderungen erfüllen kann.
3||| Cloud-Sicherheitstechnologiedienste
So stellen Sie die Sicherheitsdienstanforderungen von Internet-Endbenutzern sicher und implementieren effektiv Computervirenschutz und andere damit verbundene Dienste auf der Clientseite. Gemessen an der Entwicklung der Cloud-Sicherheitsarchitektur müssen Dienstbenutzer über stärkere Sicherheitsfunktionen verfügen und mehr Verwaltungsverantwortung übernehmen, wenn das Sicherheitsniveau der Cloud-Computing-Dienstleitungen nicht hoch ist.
2. Um die Fähigkeiten des Cloud-Sicherheitssystems zu verbessern und seine hohe Zuverlässigkeit sicherzustellen, muss die Cloud-Sicherheitstechnologie aus der Perspektive der Offenheit und der Sicherheitsarchitekturarchitektur betrachtet werden.
(1) Das Cloud-Sicherheitssystem weist einen gewissen Grad an Offenheit auf und muss eine vertrauenswürdige Authentifizierung in einer offenen Umgebung gewährleisten:
(2) Im Hinblick auf Cloud-Sicherheitssysteme müssen wir aktiv fortschrittliche Netzwerktechnologie und Virenschutztechnologie einführen;
(3) Während des Aufbauprozesses des Cloud-Sicherheitssystems muss dessen Stabilität gewährleistet sein, um den dynamischen Änderungen großer Datenmengen gerecht zu werden.
iv. Anwendung und Entwicklung
1. Nach mehr als zehn Jahren Entwicklung ist Cloud Computing allmählich in ein ausgereiftes Stadium eingetreten und spielt in vielen Bereichen eine immer wichtigere Rolle. „Der Weg in die Cloud“ wird für verschiedene Organisationen der erste Schritt sein, um die digitale Transformation zu beschleunigen, technologische Innovationen zu fördern und zu fördern. und das Unternehmenswachstum fördern. Eine Wahl, sogar eine notwendige Voraussetzung.
2. Cloud Computing wird weiterhin zu einem wichtigen Träger und Testfeld für innovative Technologien und beste Ingenieurspraktiken werden. Von KI und maschinellem Lernen, IoT und Edge Computing, Blockchain bis DevOps, Cloud Native und Service Mesh in der Ingenieurspraxis beteiligen sich Cloud-Computing-Anbieter aktiv, investieren und fördern. Nehmen wir als Beispiel künstliche Intelligenz, von der oben erwähnten Bereitstellung von GPU-Rechenressourcen in TaaS über die Eröffnung ausgereifter Modellfunktionen in bestimmten Bereichen (z. B. APIs für verschiedene natürliche Sprachverarbeitung, Bilderkennung und Sprachsynthese) bis hin zur Unterstützung Durch die Erstellung einer maßgeschneiderten Plattform für maschinelles Lernen des AJ-Modells ist Cloud Computing tatsächlich zur Grundlage für KI-bezogene Technologien geworden.
3. Cloud Computing wird dem Trend des industriellen Internets folgen, in Branchenszenarien versinken und sich tiefgreifend in Richtung Vertikalisierung und Industrialisierung entwickeln.
4. Die Entwicklung bringt neue Probleme mit sich:
(1) Obwohl die Cloud bereits eine sehr hohe Verfügbarkeit bieten kann, müssen kritische Anwendungen dennoch die notwendige technische Redundanz aufbauen, um das Risiko eines Ausfalls eines einzelnen Anbieters zu vermeiden.
(2) Wenn der Geschäftsumfang groß ist, ist es aus Sicht der Geschäftsstrategie auch notwendig, eine zu enge Herstellervereinbarung zu vermeiden, um ein gewisses Maß an geschäftlicher Kontrolle und Initiative anzustreben.
5. Die vier großen Trends „Innovation, Vertikalität, Hybridisierung und Ökologie“ gehen mit der rasanten Entwicklung des Cloud Computing einher. Cloud Computing standardisiert, abstrahiert und skaliert IT-Hardwareressourcen und Softwarekomponenten. Es untergräbt und rekonstruiert in gewisser Weise die Lieferkette der IT-Branche. Es ist eine große Innovation und ein Fortschritt in der Entwicklung der aktuellen neuen Generation der Informationstechnologie.
IV. Große Daten
i. Big Data bezieht sich auf eine Sammlung von Daten, die mit herkömmlichen Softwaretools nicht innerhalb eines bestimmten Zeitraums erfasst, verwaltet und verarbeitet werden können. Es handelt sich um eine riesige, schnell wachsende und umfangreiche Datensammlung mit stärkerer Entscheidungskraft, Erkenntnisgewinnung und mehr Möglichkeiten zur Prozessoptimierung.
ii. technische Grundlage
1. Big Data sind Daten mit den Merkmalen eines großen Volumens, einer vielfältigen Struktur und einer hohen Aktualität. Die Verarbeitung von Big Data erfordert den Einsatz neuer Technologien wie neuer Buchhaltungs- und Kreditarchitekturen und intelligenter Algorithmen. Von der Datenquelle bis zur endgültigen Wertrealisierung erfordert Big Data im Allgemeinen Prozesse wie Datenaufbereitung, Datenspeicherung und -verwaltung, Datenanalyse und -berechnung, Datenverwaltung und Wissenspräsentation, einschließlich Datenmodellen, Verarbeitungsmodellen, Computertheorie und damit verbundenem verteiltem Rechnen. Forschung zu verteilte Speicherplattformtechnologie, Datenbereinigungs- und Mining-Technologie, Streaming-Computing und inkrementelle Verarbeitungstechnologie, Datenqualitätskontrolle usw.
2. Zu den Hauptmerkmalen von Big Data gehören im Allgemeinen:
(1) Riesige Daten
Springen Sie vom TB-Niveau zum PB-Niveau (IPB=l024TB), zum EB-Niveau (IEB=I024PB) und erreichen Sie sogar das ZB-Niveau (IZB=I024EB).
(2) Verschiedene Datentypen
Es gibt viele Arten von Daten in Big Data, die im Allgemeinen in strukturierte Daten und unstrukturierte Daten unterteilt werden. Im Vergleich zu den textbasierten strukturierten Daten, die in der Vergangenheit gespeichert wurden, gibt es immer mehr unstrukturierte Daten, darunter Webprotokolle, Audio, Video, Bilder, geografische Standortinformationen usw. Diese verschiedenen Datentypen verfügen über größere Datenverarbeitungsfunktionen Es wurden höhere Anforderungen gestellt.
(3) Geringe Datenwertdichte
Der Grad der Datenwertdichte ist umgekehrt proportional zur Größe der gesamten Datenfülle. Nehmen Sie als Beispiel ein Video, bei dem die Nutzdaten bei kontinuierlicher und ununterbrochener Überwachung möglicherweise nur ein oder zwei Sekunden betragen. Wie der Wert von Daten durch leistungsstarke Maschinenalgorithmen schneller „gereinigt“ werden kann, ist im aktuellen Kontext von Big Data zu einem dringenden Problem geworden, das gelöst werden muss.
(4) Schnelle Datenverarbeitung
Um aus riesigen Datenmengen schnell Datenwert zu gewinnen, ist es im Allgemeinen erforderlich, verschiedene Datentypen schnell zu verarbeiten. Dies ist das wichtigste Merkmal von Big Data, das es vom herkömmlichen Data Mining unterscheidet.
iii. Schlüsseltechnologie
1. Als aufstrebende Technologie im Informationszeitalter umfasst die Big-Data-Technologie viele Aspekte wie Datenverarbeitung, -verwaltung und -anwendung. Konkret untersucht und analysiert die technische Architektur die Erfassung, Verwaltung, verteilte Verarbeitung und Anwendung von Big Data aus technischer Sicht.
2. Die Architektur der Big-Data-Technologie umfasst hauptsächlich
(1) Big-Data-Erfassungstechnologie
Die Forschung zur Big-Data-Erfassung konzentriert sich hauptsächlich auf drei Aspekte: Datenerfassung, -integration und -bereinigung. Die Datenerfassungstechnologie ermöglicht die Erfassung von Datenquellen und stellt dann die Datenqualität durch Integrations- und Reinigungstechnologie sicher.
Die Datenerfassungstechnologie erhält Dateninformationen hauptsächlich von Websites durch verteiltes Crawlen, verteilte Hochgeschwindigkeits- und Hochzuverlässigkeitsdatenerfassung sowie Hochgeschwindigkeits-Datenbildgebungstechnologie für das gesamte Netzwerk. Zusätzlich zu den im Netzwerk enthaltenen Inhalten kann die Erhebung von Netzwerkverkehrsgebühren mithilfe von Bandbreitenmanagementtechnologien wie DPI oder DFI abgewickelt werden.
Die Datenintegrationstechnologie basiert auf Datenerfassung und Entitätserkennung, um eine qualitativ hochwertige Integration von Daten in Informationen zu erreichen. Die Datenintegrationstechnologie umfasst Multiquellen- und Multimodal-Informationsintegrationsmodelle, intelligente Konvertierungsmodelle für heterogene Daten, intelligente Musterextraktions- und Mustervergleichsalgorithmen für die Integration heterogener Daten, automatische fehlertolerante Zuordnungs- und Konvertierungskalibrierung und -algorithmen sowie Methoden zur Richtigkeitsüberprüfung für integrierte Daten Informationen, Methoden zur Bewertung der Benutzerfreundlichkeit integrierter Informationen usw.
Die Datenbereinigungstechnologie entfernt im Allgemeinen unangemessene und fehlerhafte Daten auf der Grundlage von Korrektheitsbedingungen und Dateneinschränkungsregeln, repariert wichtige Informationen und stellt die Datenintegrität sicher. Einschließlich semantisches Datenkorrektheitsmodell, Assoziationsmodell und Datenbeschränkungsregeln, Datenfehlermodell und Fehlererkennungs-Lernrahmen, automatische Erkennungs- und Reparaturalgorithmen für verschiedene Fehlertypen, Bewertungsmodelle und Bewertungsmethoden für Fehlererkennungs- und Reparaturergebnisse usw.
(2) Verteilte Datenverarbeitungstechnologie
Mit der Entwicklung verteilter Systeme ist das verteilte Rechnen entstanden. Sein Kern besteht darin, Aufgaben in viele kleine Teile zu zerlegen und sie durch den Mechanismus der Parallelarbeit insgesamt zu verarbeiten . Zu den gängigen verteilten Computersystemen gehören derzeit Hadoop, Spark und Storm. Hadoop wird häufig für die Offline-Verarbeitung komplexer Big Data verwendet, Spark wird häufig für die schnelle Offline-Big-Data-Verarbeitung verwendet und Storm wird häufig für die Online-Big-Data-Verarbeitung in Echtzeit verwendet.
Big-Data-Analyse und Mining-Technologie beziehen sich hauptsächlich auf die Verbesserung bestehender Data-Mining- und maschineller Lerntechnologien: neue Data-Mining-Technologien wie Shengfa Data Network Mining, Specific Group Mining und Graph Mining; die Innovation von Big Data wie objektbasierte Datenverbindungen und Ähnlichkeitsverbindungen; . Fusionstechnologie: Durchbrüche bei feldorientierten Big-Data-Mining-Technologien wie Benutzerinteressenanalyse, Netzwerkverhaltensanalyse und emotionaler semantischer Analyse.
(3) Big-Data-Management-Technologie
Die Big-Data-Management-Technologie konzentriert sich hauptsächlich auf Big-Data-Speicherung, Big-Data-Zusammenarbeit, Sicherheit und Datenschutz.
Die Big-Data-Speichertechnologie hat hauptsächlich drei Aspekte:
1||| Ein neuer Datenbankcluster mit MPP-Architektur;
2||| Verwandte Big-Data-Technologien wurden rund um Hadoop abgeleitet;
3||| Basierend auf integrierten Servern, Speichergeräten, Betriebssystemen und Datenbankverwaltungssystemen wird eine Big-Data-All-in-One-Maschine mit guter Stabilität und Skalierbarkeit realisiert.
Die kollaborative Managementtechnologie mehrerer Rechenzentren ist eine weitere wichtige Richtung der Big-Data-Forschung. Durch die verteilte Workflow-Engine werden Workflow-Planung und Lastausgleich realisiert sowie Speicher- und Rechenressourcen mehrerer Rechenzentren integriert, um den Aufbau einer Big-Data-Serviceplattform zu unterstützen.
Die Forschung zur Big-Data-Datenschutztechnologie konzentriert sich hauptsächlich auf neue Datenfreigabetechnologien und versucht, die Privatsphäre der Benutzer zu maximieren und gleichzeitig den Verlust von Dateninformationen zu minimieren, um so den Anforderungen an Datensicherheit und Datenschutz gerecht zu werden.
(4) Big-Data-Anwendungs- und Servicetechnologie
1||| Zu den Big-Data-Anwendungs- und Servicetechnologien gehören hauptsächlich Analyseanwendungstechnologie und Visualisierungstechnologie.
2||| Big-Data-Analyseanwendungen sind hauptsächlich geschäftsorientierte Analyseanwendungen. Basierend auf der Analyse und dem Mining verteilter Meeresspiegeldaten orientiert sich die Anwendungstechnologie für die Big-Data-Analyse an den Geschäftsanforderungen, führt spezielle Datenanalysen für verschiedene Arten von Geschäftsanforderungen durch und bietet Benutzern hochverfügbare und benutzerfreundliche Datenanalysedienste .
3||| Visualisierung hilft Menschen, komplexe Daten durch interaktive visuelle Darstellungen zu erkunden und zu verstehen. Die Big-Data-Visualisierungstechnologie konzentriert sich hauptsächlich auf Textvisualisierungstechnologie, Netzwerk-(Grafik-)Visualisierungstechnologie, räumlich-zeitliche Datenvisualisierungstechnologie, mehrdimensionale Datenvisualisierung und interaktive Visualisierung usw.
iv. Anwendung und Entwicklung
1. In der Internetbranche unterstützt die Analyse des Benutzerverhaltens aus den Daten von Dalan und deren Rückübertragung an den Geschäftsbereich ein präziseres Social-Marketing und Werbung, was den Geschäftsumsatz steigern und die Geschäftsentwicklung fördern kann.
2. Im Bereich der öffentlichen Daten der Regierung werden in Kombination mit der Erfassung, Verwaltung und Integration großer Datenmengen die von verschiedenen Abteilungen gesammelten Informationen analysiert und weitergegeben, wodurch Managementlücken aufgedeckt, Steuer- und Steuereinnahmen erhöht, die Marktaufsicht verbessert und erhebliche Änderungen vorgenommen werden können das Regierungsmanagementmodell. Verbesserung des Niveaus der sozialen Governance.
3. Im Finanzbereich ist die Big-Data-Kreditberichterstattung ein wichtiges Anwendungsfeld. Bieten Sie Finanzdienstleistungen wirksame Unterstützung durch Big-Data-Analyse und Profiling.
4. Im industriellen Bereich kann es in Kombination mit der Analyse von Meeresdruckdaten genaue Leitlinien für den industriellen Produktionsprozess liefern.
5. Im Bereich des sozialen Lebens und des Lebensunterhalts der Menschen kann die Analyse und Anwendung von Big Data den Lebensunterhalt der Menschen besser verbessern.
V. Blockchain
i. Das Konzept der „Blockchain“ wurde erstmals 2008 in „Bitcoin: A Peer-to-Peer Electronic Cash System“ vorgeschlagen und erfolgreich im Datenverschlüsselungswährungssystem des Bitcoin-Systems angewendet. Es ist zu einem Schwerpunkt von Regierungen, Organisationen und geworden Wissenschaftler und Forschungs-Hotspots. Die Blockchain-Technologie zeichnet sich durch multizentrische Speicherung, Datenschutz und Manipulationsschutz aus. Sie bietet einen offenen, dezentralen und fehlertoleranten Transaktionsmechanismus und ist zum Kern einer neuen Generation anonymer Online-Zahlungen und -Überweisungen geworden Transaktionen mit digitalen Vermögenswerten sind weit verbreitet. Die Handelsplattform hat tiefgreifende Veränderungen in den Bereichen Finanzen, Regulierungsbehörden, technologische Innovation, Landwirtschaft und Politik mit sich gebracht.
ii. technische Grundlage
1. Das Konzept der Blockchain kann als verteilte Speicherdatenbank verstanden werden, die auf einem asymmetrischen Verschlüsselungsalgorithmus, einem verbesserten Merkle Tree (MerkleTree) als Datenstruktur und einer Kombination aus Konsensmechanismus, Peer-to-Peer-Netzwerk, Smart Contract und anderen Technologien basiert . Technologie.
2. Blockchain ist in vier Hauptkategorien unterteilt:
(1) ÖffentlicheBlockchain
(2) KonsortiumBlockchain
(3) Private Blockchain
(4) Hybridkette (HybridBlcokchain)
3. Zu den typischen Merkmalen der Blockchain gehören im Allgemeinen:
(1) Polyzentralisierung
Die Überprüfung, Abrechnung, Speicherung, Wartung und Übertragung von Daten in der Kette basieren alle auf der verteilten Systemstruktur. Anstelle zentralisierter Organisationen werden Vertrauensbeziehungen zwischen mehreren verteilten Knoten aufgebaut und so ein vertrauenswürdiges verteiltes System aufgebaut.
(2) Mehrparteienwartung
Der Anreizmechanismus stellt sicher, dass alle Knoten im verteilten System am Verifizierungsprozess von Datenblöcken teilnehmen und über den Konsensmechanismus bestimmte Knoten auswählen können, um neu generierte Blöcke zur Blockchain hinzuzufügen.
(3) Zeitreihendaten
Blockchain verwendet eine Kettenstruktur mit Zeitstempelinformationen zum Speichern von Dateninformationen und fügt den Dateninformationen Zeitdimensionsattribute hinzu, wodurch eine Rückverfolgbarkeit der Dateninformationen erreicht wird.
(4) intelligenter Vertrag
Die Blockchain-Technologie kann Benutzern flexible und variable Skriptcodes zur Verfügung stellen, um die Erstellung neuer Smart Contracts zu unterstützen.
(5) kann nicht manipuliert werden
Da im Blockchain-System die nachfolgenden Blöcke zwischen benachbarten Blöcken die vorherigen Blöcke überprüfen können, werden der Block und alle nachfolgenden Blöcke rekursiv geändert, wenn die Dateninformationen eines bestimmten Blocks manipuliert werden. Die Kosten für jede Hash-Neuberechnung betragen jedoch enorm und muss innerhalb einer begrenzten Zeit abgeschlossen werden, damit die Manipulationssicherheit der Daten in der Kette gewährleistet werden kann.
(6) offener Konsens
Im Blockchain-Netzwerk kann jedes physische Gerät als Knoten im Netzwerk dienen, und jeder Knoten kann frei beitreten und über eine vollständige Kopie der Datenbank verfügen.
(7) Sicher und vertrauenswürdig
Datensicherheit kann durch die Verschlüsselung von Daten in der Kette basierend auf asymmetrischer Verschlüsselungstechnologie erreicht werden. Jeder Knoten im verteilten System nutzt die durch den Blockchain-Konsensalgorithmus gebildete Rechenleistung, um externen Angriffen zu widerstehen und sicherzustellen, dass die Daten in der Kette nicht manipuliert werden Dadurch hat es eine höhere Vertraulichkeit, Glaubwürdigkeit und Sicherheit.
iii. Schlüsseltechnologien
1. Aus Sicht des technischen Blockchain-Systems basiert die Blockchain auf der zugrunde liegenden Datenverarbeitungs-, Verwaltungs- und Speichertechnologie und organisiert Blockdatenverwaltung, kettenstrukturierte Daten, digitale Signaturen, Hash-Funktionen, Merkel-Bäume, asymmetrische Verschlüsselung usw Knoten zur Teilnahme an der Datenverbreitung und -überprüfung über ein symmetrisches Netzwerk basierend auf dem P2P-Netzwerk. Jeder Knoten ist für das Netzwerkrouting, die Überprüfung von Blockdaten, die Verbreitung von Blockdaten, die Aufzeichnung von Transaktionsdaten, die Erkennung neuer Knoten usw. verantwortlich Überprüfungsmechanismus. Um die Sicherheit der Blockchain-Anwendungsschicht zu gewährleisten, wird durch den Ausgabemechanismus und den Verteilungsmechanismus der Anreizschicht ein Konsens zwischen den Knoten des gesamten verteilten Netzwerks auf die effizienteste Weise erzielt.
2. Verteiltes Hauptbuch
Distributed Ledger ist einer der Kerne der Blockchain-Technologie. Die Kernidee des verteilten Hauptbuchs besteht darin, dass die Transaktionsbuchhaltung von mehreren an verschiedenen Orten verteilten Knoten durchgeführt wird und jeder Knoten eine eindeutige und echte Kopie des Hauptbuchs speichert. Sie können an der Überwachung der Rechtmäßigkeit der Transaktion teilnehmen und dies auch tun Geben Sie gemeinsam Unterstützung für die Transaktion. Alle Änderungen im Hauptbuch werden in allen Kopien widergespiegelt.
Die Distributed-Ledger-Technologie kann die Sicherheit und Genauigkeit von Vermögenswerten gewährleisten und bietet ein breites Spektrum an Anwendungsszenarien, insbesondere im Bereich der öffentlichen Dienste. Sie kann die Beziehung zwischen der Regierung und den Bürgern im Hinblick auf Datenaustausch, Transparenz und Vertrauen neu definieren wird häufig in den Bereichen Finanztransaktionen, staatliche Besteuerung, Grundbesitzregistrierung, Passverwaltung, Sozialfürsorge und anderen Bereichen eingesetzt.
3. Verschlüsselungsalgorithmus
Hash-Algorithmus
Auch als Datendigest oder Hash-Algorithmus bezeichnet, besteht sein Prinzip darin, eine Information in eine Zeichenfolge fester Länge mit den folgenden Eigenschaften umzuwandeln: Wenn zwei Informationen gleich sind, dann sind auch die Zeichen gleich: auch wenn die beiden Teile gleich sind Die Anzahl der Informationen ist sehr ähnlich. Solange sie jedoch unterschiedlich sind, sind die Zeichenfolgen sehr chaotisch und zufällig und haben überhaupt keine Beziehung zwischen den beiden Zeichenfolgen. Typische Hashing-Algorithmen sind MD5, SHA und SM3. Derzeit verwendet die Blockchain hauptsächlich den SHA256-Algorithmus.
asymmetrischer Verschlüsselungsalgorithmus
Eine Verschlüsselungsmethode, die aus einem entsprechenden Paar eindeutiger Schlüssel besteht (dh öffentlicher Schlüssel und privater Schlüssel). Jeder, der den öffentlichen Schlüssel des Benutzers kennt, kann den öffentlichen Schlüssel des Benutzers verwenden, um Informationen zu verschlüsseln und eine sichere Informationsinteraktion mit dem Benutzer zu erreichen. Aufgrund der Abhängigkeit zwischen dem öffentlichen Schlüssel und dem privaten Schlüssel kann nur der Benutzer selbst die Informationen entschlüsseln und kein unberechtigter Benutzer oder gar der Absender der Informationen kann die Informationen entschlüsseln. Zu den häufig verwendeten asymmetrischen Verschlüsselungsalgorithmen gehören RSA, Elgamal, D-H, ECC (Elliptic Curve Encryption Algorithm) usw.
4. Konsensmechanismus
Blockchain-Konsensprobleme müssen durch den Blockchain-Konsensmechanismus gelöst werden. Der Konsensalgorithmus kann sicherstellen, dass verteilte Computer oder Softwareprogramme zusammenarbeiten und korrekt auf die Eingabe und Ausgabe des Systems reagieren.
Die Idee des Konsensmechanismus der Blockchain ist: Wenn eine Gesamtkoordinierung von einem zentralen Punkt aus fehlt und ein bestimmter Abrechnungsknoten eine Erhöhung oder Verringerung der Blockdaten vorschlägt und den Vorschlag an alle teilnehmenden Knoten sendet, müssen alle Knoten folgen Es werden bestimmte Regeln und Mechanismen verwendet, um zu berechnen und zu verarbeiten, ob dieser Vorschlag einen Konsens erzielen kann.
Derzeit umfassen die am häufigsten verwendeten Konsensmechanismen hauptsächlich PoW, PoS, DPoS, Paxos, PBFT usw.
Entsprechend den Merkmalen verschiedener Konsensmechanismen in verschiedenen Anwendungsszenarien der Blockchain kann die Analyse des Konsensmechanismus auf Folgendem basieren:
(1) Compliance-Überwachung
Ob Super Authority-Knoten unterstützt werden sollen, um die Knoten und Daten des gesamten Netzwerks zu überwachen.
(2) Leistungsfähigkeit
Die Effizienz, mit der Transaktionen einen Konsens erzielen und bestätigt werden.
(3) LF
Die während des Konsensprozesses verbrauchten Ressourcen wie CPU, Netzwerk-Ein- und -Ausgabe sowie Speicher.
(4) Fehlertoleranz
Die Fähigkeit, Angriffe und Betrug zu verhindern.
iv. Anwendung und Entwicklung
1. Blockchain wird zu einem der Grundprotokolle des Internets werden.
Als Protokoll, das Eigentum übertragen kann, wird Blockchain eine neue grundlegende Protokollschicht aufbauen, die auf der bestehenden Internetprotokollarchitektur basiert. Blockchain (Protokoll) wird wie das Transmission Control Protocol/Internet Protocol (TCP/IP) zum Grundprotokoll des zukünftigen Internets werden und ein effizientes, multizentrisches Netzwerk zur Wertspeicherung und -übertragung aufbauen.
2. Verschiedene Schichten der Blockchain-Architektur tragen unterschiedliche Funktionen.
Ähnlich der Schichtstruktur des TCP/IP-Protokollstapels haben wir eine Vielzahl von Protokollen der Anwendungsschicht auf der Grundlage des einheitlichen Transportschichtprotokolls entwickelt und letztendlich das farbenfrohe Internet von heute aufgebaut. Zukünftig wird die Blockchain-Struktur auch verschiedene Protokolle der Anwendungsschicht entwickeln, die auf einem einheitlichen, multizentralen zugrunde liegenden Protokoll basieren.
3. Die Anwendung und Entwicklung von Blockchain befindet sich im Aufwärtstrend.
Als Kerntechnologie der nächsten Stufe der digitalen Welle wird Blockchain einen längeren Entwicklungszyklus haben als erwartet, und der Umfang und die Tiefe seiner Auswirkungen werden die Vorstellungskraft der Menschen bei weitem übersteigen Struktur der zukünftigen Wirtschaftsgesellschaft und des Lebens eines jeden.
VI. KI
i. Künstliche Intelligenz ist eine technische Wissenschaft, die Theorien, Methoden, Technologien und Anwendungssysteme zur Simulation, Erweiterung und Erweiterung der menschlichen Intelligenz untersucht und entwickelt.
ii. technische Grundlage
Von seinen Anfängen bis heute hat der Entwicklungsprozess der künstlichen Intelligenz sechs Hauptphasen durchlaufen:
1. Erste Entwicklungsphase (von 1956 bis Anfang der 1960er Jahre)
2. Reflektierende Entwicklungsperiode (1960er bis Anfang der 1970er Jahre)
3. Anwendungsentwicklungszeitraum (Anfang der 1970er bis Mitte der 1980er Jahre)
4. Entwicklungszeitraum des Abschwungs (Mitte der 1980er bis Mitte der 1990er Jahre)
5. Stetige Entwicklungsperiode (Mitte der 1990er Jahre bis 2010)
6. Starke Entwicklungsphase (2011 bis heute)
Aus der Analyse der aktuellen Technologie der künstlichen Intelligenz geht hervor, dass sich die technische Forschung hauptsächlich auf drei Aspekte konzentriert: heiße Technologie, gemeinsame Technologie und neue Technologie.
iii. Schlüsseltechnologie
1. maschinelles Lernen
Maschinelles Lernen ist eine Technologie, die automatisch ein Modell mit Daten abgleicht und durch Training des Modells aus den Daten „lernt“. Die Forschung zum maschinellen Lernen konzentriert sich hauptsächlich auf Algorithmen und Anwendungen für maschinelles Lernen, Algorithmen für verstärktes Lernen, Approximations- und Optimierungsalgorithmen sowie Planungsprobleme. Zu den allgemeinen Lernalgorithmen gehören hauptsächlich grundlegende Algorithmen wie Regression, Clustering, Klassifizierung, Approximation, Schätzung und Optimierungsforschung , Reinforcement-Learning-Methoden wie Transfer Learning, Multi-Core-Learning und Multi-View-Learning sind aktuelle Forschungsschwerpunkte.
Neuronale Netze sind eine Form des maschinellen Lernens, die in den 1960er Jahren entstand und in Klassifizierungsanwendungen eingesetzt wird. Es analysiert Probleme im Hinblick auf Eingaben, Ausgaben und variable Gewichte oder „Merkmale“, die Eingaben mit Ausgaben in Beziehung setzen. Es ähnelt der Art und Weise, wie Tausende von Neuronen Signale verarbeiten. Deep Learning ist ein neuronales Netzwerkmodell, das Ergebnisse anhand von mehrstufigen Merkmalen und Indizes vorhersagt. Dank der schnelleren Verarbeitungsgeschwindigkeit der aktuellen Computerarchitektur ist dieser Modelltyp in der Lage, Tausende von Merkmalen zu verarbeiten. Im Gegensatz zu früheren Formen der statistischen Analyse hat jedes Merkmal in einem Deep-Learning-Modell für einen menschlichen Beobachter normalerweise nur eine geringe Bedeutung, was die Verwendung und Interpretation des Modells erschwert. Deep-Learning-Modelle verwenden eine Technik namens Backpropagation, um Vorhersagen zu treffen oder Ausgaben über das Modell zu klassifizieren. Reinforcement Learning ist eine weitere Form des maschinellen Lernens. Das bedeutet, dass das maschinelle Lernsystem ein Ziel festlegt und für jeden Schritt in Richtung dieses Ziels eine Belohnung erhält.
Modelle des maschinellen Lernens basieren auf Statistiken und sollten mit konventionellen Analysen verglichen werden, um ihren inkrementellen Wert zu bestimmen. Sie sind tendenziell genauer als herkömmliche „handgemachte“ Analysemodelle, die auf menschlichen Annahmen und Regressionsanalysen basieren, sind aber auch komplexer und schwieriger zu interpretieren. Im Vergleich zur herkömmlichen statistischen Analyse sind automatisierte Modelle für maschinelles Lernen einfacher zu erstellen und können mehr Datendetails offenlegen.
2. Verarbeitung natürlicher Sprache
Natural Language Processing (NLP) ist eine wichtige Richtung in den Bereichen Informatik und künstliche Intelligenz. Es untersucht verschiedene Theorien und Methoden, die eine effektive Kommunikation zwischen Menschen und Computern mithilfe natürlicher Sprache ermöglichen. Die Verarbeitung natürlicher Sprache ist eine Wissenschaft, die Linguistik, Informatik und Mathematik integriert.
Die Verarbeitung natürlicher Sprache wird hauptsächlich in der maschinellen Übersetzung, der Überwachung der öffentlichen Meinung, der automatischen Zusammenfassung, der Meinungsextraktion, der Textklassifizierung, der Beantwortung von Fragen, dem semantischen Vergleich von Texten, der Spracherkennung, der chinesischen OCR usw. verwendet.
Die Verarbeitung natürlicher Sprache (d. h. die Verwirklichung der Kommunikation natürlicher Sprache zwischen Menschen und Maschinen oder die Verwirklichung des Verstehens natürlicher Sprache und der Erzeugung natürlicher Sprache) ist sehr schwierig. Der Hauptgrund für die Schwierigkeit besteht darin, dass es auf allen Ebenen verschiedene Arten von Problemen gibt von Text und Dialog in natürlicher Sprache. Die durch die Verarbeitung natürlicher Sprache gelösten Kernprobleme sind Informationsextraktion, automatische Zusammenfassung/Wortsegmentierung, Identifizierung und Transformation usw., die zur Lösung der effektiven Definition von Inhalten, Begriffsklärung und Mehrdeutigkeit, fehlerhafter oder nicht standardmäßiger Eingabe und Sprachverhalten verwendet werden Verständnis und Interaktion. Derzeit ist die Deep-Learning-Technologie eine wichtige technische Unterstützung für die Verarbeitung natürlicher Sprache. Bei der Verarbeitung natürlicher Sprache müssen Deep-Learning-Modelle angewendet werden, z. B. Faltungs-Neuronale Netze, wiederkehrende Neuronale Netze usw., um aus den generierten Wörtern zu lernen, natürliche Wörter zu bilden Wörter. Der Prozess der Sprachklassifizierung und des Sprachverständnisses.
3. Expertensystem
Ein Expertensystem ist ein intelligentes Computerprogrammsystem, das normalerweise aus sechs Teilen besteht: Mensch-Computer-Interaktionsschnittstelle, Wissensdatenbank, Inferenzmaschine, Interpreter, umfassende Datenbank und Wissenserwerb. Es enthält eine große Menge an Wissen und Wissen auf Expertenebene In einem bestimmten Bereich kann es künstliche Intelligenz und Computertechnologie anwenden, um auf der Grundlage des Wissens und der Erfahrung im System Überlegungen anzustellen und den Entscheidungsprozess klassifizierter Experten zu simulieren, um komplexe Probleme zu lösen, die menschliche Anforderungen erfüllen Experten, mit denen man sich auseinandersetzen muss. Kurz gesagt ist ein Expertensystem ein Computerprogrammsystem, das menschliche Experten simuliert, um Domänenprobleme zu lösen.
Im Entwicklungsprozess der künstlichen Intelligenz hat die Entwicklung von Expertensystemen drei Phasen durchlaufen und geht in die vierte Generation über. Die Expertensysteme der ersten Generation zeichneten sich durch einen hohen Spezialisierungsgrad und ihre Fähigkeit zur Lösung spezieller Probleme aus. Es bestehen jedoch Mängel hinsichtlich der Integrität der Architektur, der Portabilität, der Systemtransparenz und der Flexibilität. Das Expertensystem der zweiten Generation ist ein professionelles und anwendungsbasiertes Ein-Fach-System. Seine Systemstruktur ist relativ vollständig und seine Portabilität wurde verbessert. Es bietet auch viele Vorteile in Bezug auf die Mensch-Maschine-Schnittstelle, den Erklärungsmechanismus und die Technologie zum Wissenserwerb , Unsicherheitsbegründungstechnologie und verbessertes Expertensystem Die Wissensdarstellungs- und Argumentationsmethoden des Systems wurden im Hinblick auf Heuristik und Vielseitigkeit verbessert. Das Expertensystem der dritten Generation ist ein multidisziplinäres umfassendes System, das mehrere Sprachen der künstlichen Intelligenz verwendet, verschiedene Wissensdarstellungsmethoden sowie mehrere Argumentationsmechanismen und Kontrollstrategien umfassend übernimmt und verschiedene Knowledge-Engineering-Sprachen, Skelettsysteme sowie Expertensystem-Entwicklungstools und -umgebungen verwendet, um große zu entwickeln Umfangreiche Expertensysteme.
Die aktuelle Forschung zu Expertensystemen in der künstlichen Intelligenz ist in die vierte Phase eingetreten und erforscht hauptsächlich groß angelegte Multi-Experten-Kollaborationssysteme, mehrere Wissensrepräsentationen, umfassende Wissensdatenbanken, selbstorganisierende Problemlösungsmechanismen, multidisziplinäre kollaborative Problemlösung usw Paralleles Denken und Expertensystem-Tools und -Umgebung, Wissenserwerb und Lernmechanismus für künstliche neuronale Netze usw.
iv. Anwendung und Entwicklung
Nach mehr als 60 Jahren Entwicklung hat die künstliche Intelligenz wichtige Durchbrüche bei Algorithmen, Berechnungen (Fähigkeit zur Berechnung von Gütern) und Berechnungen (Daten) erzielt. Sie befindet sich jedoch an einem technischen Wendepunkt von „unbrauchbar“ zu „verwendbar“. , Es gibt noch viele Engpässe, bevor es „sehr nützlich“ ist. Das Erreichen einer sprunghaften Entwicklung von dedizierter künstlicher Intelligenz hin zu allgemeiner künstlicher Intelligenz ist ein unvermeidlicher Trend bei der Entwicklung der nächsten Generation künstlicher Intelligenz.
1. Von künstlicher Intelligenz zur hybriden Mensch-Maschine-Intelligenz.
Die Nutzung der Forschungsergebnisse der Hirn- und Kognitionswissenschaft ist eine wichtige Forschungsrichtung der Künstlichen Intelligenz. Die hybride Mensch-Maschine-Intelligenz zielt darauf ab, menschliche Funktionen oder kognitive Modelle in Systeme der künstlichen Intelligenz einzuführen, um die Leistung von Systemen der künstlichen Intelligenz zu verbessern, künstliche Intelligenz zu einer natürlichen Erweiterung und Erweiterung der menschlichen Intelligenz zu machen und komplexe Probleme durch die Zusammenarbeit von Mensch und Maschine effizienter zu lösen. .
2. Von „künstlicher Intelligenz“ bis hin zu autonomen intelligenten Systemen.
Die aktuelle große Forschung im Bereich der künstlichen Intelligenz konzentriert sich auf Deep Learning, die Einschränkung des Deep Learning besteht jedoch darin, dass es viele manuelle Eingriffe erfordert. Daher haben wissenschaftliche Forscher begonnen, sich mit Methoden der autonomen Intelligenz zu befassen, die manuelle Eingriffe reduzieren und die Fähigkeit der maschinellen Intelligenz verbessern, autonom aus der Umgebung zu lernen.
3. Künstliche Intelligenz wird die Durchdringung mit anderen Fachgebieten beschleunigen.
Künstliche Intelligenz ist eine umfassende Spitzendisziplin und eine hochgradig interdisziplinäre Verbunddisziplin, die eine tiefe Integration mit Disziplinen wie Informatik, Mathematik, Kognitionswissenschaft, Neurowissenschaften und Sozialwissenschaften erfordert. Mit Hilfe von Durchbrüchen in der Biologie, den Hirnwissenschaften, den Biowissenschaften, der Psychologie und anderen Disziplinen sowie der Umwandlung von Mechanismen in berechenbare Modelle wird die künstliche Intelligenz tief in weitere Disziplinen eindringen.
4. Die Branche der künstlichen Intelligenz wird florieren.
Das innovative Modell der „Künstlichen Intelligenz“.
5. Auf der Tagesordnung steht die Soziologie der Künstlichen Intelligenz.
Um eine gesunde und nachhaltige Entwicklung der künstlichen Intelligenz sicherzustellen und ihre Entwicklungsergebnisse den Menschen zugute zu bringen, ist es notwendig, die Auswirkungen künstlicher Intelligenz auf die menschliche Gesellschaft aus soziologischer Sicht systematisch und umfassend zu untersuchen sowie Gesetze und Gesetze zur künstlichen Intelligenz zu formulieren und zu verbessern Vorschriften.
VII. Virtuelle Realität
i. Die direkte Verbindung der menschlichen Wahrnehmungsfähigkeit mit der kognitiven Erfahrung und der Computer-Informationsverarbeitungsumgebung ist der Branchenhintergrund für die Entstehung der virtuellen Realität.
ii. technische Grundlage
1. Virtual Reality (VR) ist ein Computersystem, das eine virtuelle Welt erschaffen und erleben kann. Der durch das Virtual-Reality-System geschaffene Informationsraum ist ein mehrdimensionaler Informationsraum (Cyberspace), der eine Vielzahl von Informationen enthält. In diesem mehrdimensionalen Informationsraum können die menschlichen Wahrnehmungs- und rationalen kognitiven Fähigkeiten vollständig ausgeübt werden. In Bezug auf die Hardware sind leistungsstarke Computersoftware und -hardware sowie verschiedene fortschrittliche Sensoren erforderlich. In Bezug auf die Software ist es hauptsächlich erforderlich, einen Werkzeugsatz bereitzustellen, der eine virtuelle Umgebung generieren kann.
2. Zu den Hauptmerkmalen der Virtual-Reality-Technologie gehören:
(1) Eintauchen
(2) Interaktivität
(3) multisensorisch
(4) einfallsreich (einfallsreich)
(5) Autonomie
3. Mit der rasanten Entwicklung der Virtual-Reality-Technologie hat sich die Virtual-Reality-Technologie entsprechend dem Grad der „Immersion“ und dem Grad der Interaktion von Desktop-Virtual-Reality-Systemen, immersiven Virtual-Reality-Systemen, verteilten Virtual-Reality-Systemen usw. zu Augmented Reality entwickelt Die Entwicklung von Virtual-Reality-Systemen (Augmented Reality, AR) und dem Metaverse.
iii. Schlüsseltechnologie
1. Mensch-Computer-Interaktionstechnologie
Im Gegensatz zum herkömmlichen Interaktionsmodus nur mit Tastatur und Maus handelt es sich um eine neue Art dreidimensionaler Interaktionstechnologie, die VR-Brillen, Steuergriffe und andere Sensorgeräte verwendet, um es Benutzern zu ermöglichen, die Existenz der Dinge um sie herum wirklich zu spüren. Sie kombiniert drei -dimensionale Interaktionstechnologie mit Spracherkennung Die Kombination von Spracheingabetechnologie und anderen Geräten zur Überwachung des Benutzerverhaltens ist derzeit die gängige Methode der Mensch-Computer-Interaktion.
2. Sensorik
Der Fortschritt der VR-Technologie wird durch die Entwicklung der Sensortechnologie begrenzt. Die Mängel bestehender VR-Geräte hängen eng mit der Empfindlichkeit der Sensoren zusammen.
3. Technologie zur dynamischen Umgebungsmodellierung
Das Design einer virtuellen Umgebung ist ein wichtiger Teil der VR-Technologie, die dreidimensionale Daten verwendet, um ein erweitertes virtuelles Umgebungsmodell zu erstellen. Das derzeit am häufigsten verwendete Werkzeug zur Modellierung virtueller Umgebungen ist Computer Aided Design (CAD). Bediener können die erforderlichen Daten mithilfe der CAD-Technologie erhalten und die erhaltenen Daten verwenden, um ein virtuelles Umgebungsmodell zu erstellen, das den tatsächlichen Anforderungen entspricht. Neben der Gewinnung dreidimensionaler Daten durch CAD-Technologie kann in den meisten Fällen auch die visuelle Modellierungstechnologie eingesetzt werden. Durch die Kombination beider können Daten effektiver gewonnen werden.
4. Systemintegrationstechnologie
Einschließlich Informationssynchronisation, Datenkonvertierung, Modellkalibrierung, Erkennung und Synthese usw. Da das VR-System viele Spracheingabeinformationen, Wahrnehmungsinformationen und Datenmodelle speichert, wird die Integrationstechnologie im VR-System immer wichtiger.
iv. Anwendung und Entwicklung
1. Iterationen zur Hardwareleistungsoptimierung werden beschleunigt.
Schlankheit und ultrahohe Auflösung haben die rasante Expansion des Marktes für Virtual-Reality-Terminals beschleunigt. Leistungsindikatoren wie Anzeigeauflösung, Bildrate, Freiheitsgrad, Verzögerung, interaktive Leistung, Verlagerung und Schwindel von Virtual-Reality-Geräten werden zunehmend optimiert.
2. Die Entwicklung der Netzwerktechnologie hat ihre Anwendung wirksam gefördert.
Allgegenwärtige Netzwerkkommunikation und Hochgeschwindigkeitsnetzwerkgeschwindigkeiten haben das Erlebnis der Virtual-Reality-Technologie auf der Anwendungsseite effektiv verbessert. Mithilfe der leichtgewichtigen und mobilen 5G-Technologie für Endgeräte, hoher Spitzengeschwindigkeit, Übertragungsverzögerungen im Millisekundenbereich und Hunderten von Millionen Verbindungsmöglichkeiten konnten die Anforderungen an die Virtual-Reality-Terminalseite reduziert werden.
3. Die Integration von Elementen der Virtual-Reality-Branche beschleunigt sich.
Die Virtual-Reality-Branche zeigt einen industriellen Trend von innovativen Anwendungen zu normalen Anwendungen und wird häufig in den Bereichen Bühnenkunst, Sport-Smart-Viewing, Förderung neuer Kulturen, Bildung, medizinische Versorgung und anderen Bereichen eingesetzt. „Virtual-Reality-Geschäftsausstellungen“ sind in der Post-Epidemie-Ära zur künftigen neuen Normalität geworden, „Virtual-Reality-Industrieproduktion“ ist die neue treibende Kraft für die digitale Transformation der Organisation, „Virtual-Reality-Smart-Life“ hat die zukünftige intelligente Lebenserfahrung erheblich verbessert, und „Virtual-Reality-Unterhaltung und Freizeit“ „Ein neuer Träger neuer Informationskonsummodelle werden usw.“
4. Neue Technologien treiben neue Unternehmen voran.
Aufkommende Konzepte wie das Metaversum haben der Virtual-Reality-Technologie neue Geschäftskonzepte wie „Immersion und Superposition“, „radikal und progressiv“ und „offen und geschlossen“ eingebracht, ihren Anwendungswert und sozialen Wert erheblich verbessert und werden die Art und Weise schrittweise verändern Die Menschen sind daran gewöhnt. Die physikalischen Regeln der realen Welt stimulieren industrielle technologische Innovationen auf neue Weise und treiben den Übergang und die Modernisierung verwandter Branchen in neue Modelle und neue Geschäftsformate voran.
四、 Perspektiven für die Entwicklung der Informationstechnologie der neuen Generation
(1) Allgegenwärtige intelligente Netzwerkverbindungsmöglichkeiten werden im Mittelpunkt der Entwicklung der Netzwerktechnologie stehen und eine reibungslose Weiterentwicklung und Aufrüstung von Netzwerken, Anwendungen und Terminals auf das Internet der nächsten Generation ermöglichen. Die neue Sensorinfrastruktur von IoT und Datenkommunikation wird zu einem integralen Bestandteil Als Teil der nationalen Strategie wird der integrierte Aufbau und die Entwicklung von Cloud und Netzwerk die organische Integration von Cloud-Computing-Ressourcen und Netzwerkeinrichtungen realisieren, und der Aufbau von Rechenleistungs- und Algorithmuszentren wird für geringe Latenz, hohe Zuverlässigkeit und hohe Sicherheit sorgen Edge-Computing-Funktionen.
(2) Die Big-Data-Technologie wird weiterhin zum Mainstream der künftigen Entwicklung werden, wobei der Schwerpunkt auf der Entwicklung und Nutzung von Datenressourcen, der gemeinsamen Nutzung und Verbreitung, der Verwaltung des gesamten Lebenszyklus und der Gewährleistung der Sicherheit sowie der Einrichtung und Verbesserung des Datenelementressourcensystems sowie der Wertsteigerung liegt von Datenelementen und die Verbesserung der unterstützenden Rolle von Datenelementen, Daten-Governance-Technologie, Datenanwendungs- und Service-Technologie sowie Datensicherheitstechnologie werden weiter gestärkt.
(3) Die kontinuierliche Innovation der neuen Generation der Informationstechnologie wird zu einer nationalen Strategie, die auf der Kernposition der Innovation bei der Entwicklung der nationalen Informatisierung besteht und Eigenständigkeit und Eigenständigkeit in Schlüsselkerntechnologien als strategische Unterstützung betrachtet Das digitale China steht vor den technologischen Grenzen der Welt und steht vor dem wichtigsten wirtschaftlichen Schlachtfeld, setzt die innovationsgetriebene Entwicklungsstrategie gründlich um und baut ein innovatives Entwicklungssystem auf, das von zwei Rädern technologischer Innovation angetrieben wird und institutionelle Innovation, um die digitale Produktivität vollständig freizusetzen.
(4) Der Wandel von der Informationstechnologie zur digitalen Technologie wird in Zukunft eine wichtige Stütze für die digitale Transformation des Landes, der Gesellschaft und der Industrie sein. Durchbrüche in wichtigen Software- und Hardwaretechnologien werden weiterhin an der Spitze der Technologieentwicklung stehen, eine gemeinsam optimierte Computersoftware- und Hardwareökologie und eine verbesserte Open-Source-Mobilökologie werden die Grundlage der zukünftigen Informationsökologie bilden.
(5) Die neue Generation der Informationstechnologie wird weiterhin tief in die Industrie integriert sein und die Entwicklung der industriellen digitalen Transformation vorantreiben. Das Internet, Big Data, künstliche Intelligenz und andere Branchen werden tief integriert, die gemeinsame Transformation der industriellen Digitalisierung und Ökologisierung fördern, moderne Lieferketten entwickeln, die Gesamtfaktorproduktivität verbessern, Energieeinsparung und Emissionsreduzierung fördern und die wirtschaftliche Qualität und Effizienz wirksam verbessern und Kernwettbewerbsfähigkeit, die zur Technologie wird. Ein wichtiger Stützpunkt und Stützpunkt für die Entwicklung.
(6) Die Entwicklung einer neuen Generation von Informationstechnologie wird die Entwicklung einer modernen sozialen Governance wirksam unterstützen und so effektiv ein digitales soziales Governance-System der gemeinsamen Konstruktion, gemeinsamen Verwaltung und des Teilens aufbauen. Die Vertiefung der Anwendung von Big Data, künstlicher Intelligenz und anderen Informationstechnologien in dreidimensionalen intelligenten Präventions- und Kontrollsystemen der sozialen Sicherheit, integrierten intelligenten Systemen der öffentlichen Sicherheit und Notfall-Informationssicherheitssystemen, die Friedens- und Kriegszeiten kombinieren, wird die hohe Qualität neuer intelligenter Systeme wirksam fördern Städte entwickeln sich.
(7) Die integrierte Entwicklung der Informationstechnologie der neuen Generation wird ein kollaboratives und effizientes digitales Regierungsdienstsystem schaffen, den Grad der Informatisierung des Aufbaus von Partei- und Regierungsbehörden verbessern, den Austausch und die Verbreitung von Regierungsdaten fördern und einen „One-Stop-Service“ fördern. um die Dinge für die Massen bequemer zu machen und einen Markt zu schaffen. Das Geschäftsumfeld zu legalisieren und zu internationalisieren.
(8) Das Ziel der Entwicklung der Informationstechnologie wird sich stärker darauf konzentrieren, „die Informationstechnologie zu nutzen, um das grundlegende öffentliche Dienstleistungssystem zu verbessern, die Lebensqualität der Menschen zu verbessern und es den Menschen zu ermöglichen, die Ergebnisse der Informationsentwicklung zu teilen.“ Digitale Bildung, inklusive digitale medizinische Versorgung, digitale soziale Sicherheit, Beschäftigungs- und Personaldienstleistungen, digitaler Kulturtourismus und Sportdienstleistungen werden zu wichtigen Ausdrucksformen des Wertes der Informationstechnologie.
(9) Verbesserung der internationalen Wettbewerbsfähigkeit der Informationstechnologie, aktive Beteiligung an der Reform des globalen Cyberspace-Governance-Systems, Förderung der qualitativ hochwertigen Entwicklung der „Digitalen Seidenstraße“, Erforschung und Formulierung internationaler Regeln im digitalen Bereich, Aufbau multi- Globale digitale Partnerschaften auf globaler Ebene und eine qualitativ hochwertige Einführung und Globalisierung auf hohem Niveau werden zu einem wichtigen Ausdruck der Wettbewerbsfähigkeit der Informationstechnologie.
(10) Das Governance-System für die ordnungsgemäße Entwicklung der Informationstechnologie ist die Grundlage der Regulierungstechnologie für Netzwerksicherheit, Informationssicherheit und Datensicherheit, des Mechanismus zur Überprüfung digitaler Technologieanwendungen, des Regulierungsrechtssystems, des Netzwerksicherheitsgarantiesystems usw Der Aufbau technischer Fähigkeiten wird zu einer technologischen und wichtigen Richtung für die Managementintegration.