Mindmap-Galerie Computer Vision, digitale Bildverarbeitung
Ausführliche Einführung in traditionelle Computer-Vision-Methoden, einschließlich Grundkenntnissen in digitaler Bildverarbeitung, Bildwiederherstellung, Bildkomprimierung, Bildsegmentierung usw. werden häufig zur Bildvorverarbeitung verwendet. Hoffe das hilft!
Bearbeitet um 2024-02-04 00:54:17Einhundert Jahre Einsamkeit ist das Meisterwerk von Gabriel Garcia Marquez. Die Lektüre dieses Buches beginnt mit der Klärung der Beziehungen zwischen den Figuren. Im Mittelpunkt steht die Familie Buendía, deren Wohlstand und Niedergang, interne Beziehungen und politische Kämpfe, Selbstvermischung und Wiedergeburt im Laufe von hundert Jahren erzählt werden.
Einhundert Jahre Einsamkeit ist das Meisterwerk von Gabriel Garcia Marquez. Die Lektüre dieses Buches beginnt mit der Klärung der Beziehungen zwischen den Figuren. Im Mittelpunkt steht die Familie Buendía, deren Wohlstand und Niedergang, interne Beziehungen und politische Kämpfe, Selbstvermischung und Wiedergeburt im Laufe von hundert Jahren erzählt werden.
Projektmanagement ist der Prozess der Anwendung von Fachwissen, Fähigkeiten, Werkzeugen und Methoden auf die Projektaktivitäten, so dass das Projekt die festgelegten Anforderungen und Erwartungen im Rahmen der begrenzten Ressourcen erreichen oder übertreffen kann. Dieses Diagramm bietet einen umfassenden Überblick über die 8 Komponenten des Projektmanagementprozesses und kann als generische Vorlage verwendet werden.
Einhundert Jahre Einsamkeit ist das Meisterwerk von Gabriel Garcia Marquez. Die Lektüre dieses Buches beginnt mit der Klärung der Beziehungen zwischen den Figuren. Im Mittelpunkt steht die Familie Buendía, deren Wohlstand und Niedergang, interne Beziehungen und politische Kämpfe, Selbstvermischung und Wiedergeburt im Laufe von hundert Jahren erzählt werden.
Einhundert Jahre Einsamkeit ist das Meisterwerk von Gabriel Garcia Marquez. Die Lektüre dieses Buches beginnt mit der Klärung der Beziehungen zwischen den Figuren. Im Mittelpunkt steht die Familie Buendía, deren Wohlstand und Niedergang, interne Beziehungen und politische Kämpfe, Selbstvermischung und Wiedergeburt im Laufe von hundert Jahren erzählt werden.
Projektmanagement ist der Prozess der Anwendung von Fachwissen, Fähigkeiten, Werkzeugen und Methoden auf die Projektaktivitäten, so dass das Projekt die festgelegten Anforderungen und Erwartungen im Rahmen der begrenzten Ressourcen erreichen oder übertreffen kann. Dieses Diagramm bietet einen umfassenden Überblick über die 8 Komponenten des Projektmanagementprozesses und kann als generische Vorlage verwendet werden.
digitale Bildverarbeitung
Grundkenntnisse der digitalen Bildverarbeitung
Einführung
„Bild“ ist die Verteilung des von einem Objekt reflektierten oder durchgelassenen Lichts. „Bild“ ist der Eindruck oder das Verständnis, das das vom menschlichen visuellen System akzeptierte Bild im menschlichen Gehirn erzeugt.
Bilder sind alle Bilder mit visuellen Effekten und ein allgemeiner Begriff für verschiedene Grafiken und Bilder.
Die Menge der in Bildern enthaltenen Informationen ist riesig und „sehenswert, hundertmal hörenswert“ und „auf den ersten Blick klar zu verstehen“.
Ein Bild kann mathematisch beschrieben werden als
I=f(x, y, z, λ, t)
Dabei sind x, y, z räumliche Koordinaten, λ die Wellenlänge, t die Zeit und I die Lichtintensität.
Für statische Bilder ist t konstant. Für monochrome Bilder ist λ eine Konstante. Für ebene Bilder ist z konstant.
Lichtwellen: Die menschliche Wahrnehmung ist auf den visuellen Bereich des elektromagnetischen Spektrums beschränkt, während bildgebende Geräte nahezu das gesamte elektromagnetische Spektrum abdecken können.
Bilddigitalisierung
digitales Bild
Das analoge Bild wird durch Zahlen dargestellt, und das durch Zahlen dargestellte Bild ist ein digitales Bild.
Der Prozess der Diskretisierung eines analogen Bildes, um ein digitales Bild zu erhalten, wird als Bilddigitalisierung bezeichnet.
Verfahren
Probenahme
Teilen Sie das Bild räumlich in kleine Bereiche (Pixel) auf. Jedes Pixel hat eine zweidimensionale Koordinate (Ganzzahl).
Beeinflussen
Quantifizieren
Die Helligkeit oder der Grauwert jedes Pixels wird der entsprechenden Graustufe zugeordnet, und jede Graustufe wird im Allgemeinen durch eine ganze Zahl dargestellt.
Wenn die Anzahl der quantisierten Graustufen L = 256 ist, ist der Wertebereich eine ganze Zahl von 0 bis 255, und 8 Bits können verwendet werden, um den Graustufenwert des Graustufenbildpixels darzustellen, was als 8-Bit-Quantisierung bezeichnet wird.
digitale Bilddarstellung
mathematische Darstellung
Binäres Bild
Graustufenbild
RGB-Bild
Bildspeicherformat
BMP-Format: Bitmap-Datei für Windows-Systeme
GIF-Format: kann mehrere Bilder (Animationen) speichern
TIF(F)-Format: unabhängig von Betriebssystem und FS, einfach austauschbar
JPEG-Format: Komprimierungsstandard
Grundlegende Eigenschaften von Bildern
Anzahl der Bildpixel
Die Anzahl der Bildpixel bezieht sich auf die Anzahl der Pixel, die horizontal und vertikal im Bitmap-Bild enthalten sind. Eine einfache Erhöhung der Pixelanzahl kann den Anzeigeeffekt des Bildes nicht verbessern. Der Anzeigeeffekt des Bildes wird durch die Anzahl der Pixel und die Auflösung der Anzeige bestimmt.
Bildauflösung
Die Bildauflösung bezieht sich auf die Anzahl der im Bild verteilten Pixel pro Drucklängeneinheit. Sie wird hauptsächlich zur Charakterisierung der Dichte digitaler Bildinformationen verwendet, die die Klarheit des Bildes bestimmt. Je höher die Auflösung des Bildes in einem Einheitsgrößenbereich ist, desto größer ist die Anzahl der darin enthaltenen Pixel, desto dichter sind die Pixel und desto höher ist die Klarheit des digitalen Bildes.
Bildgröße
Die Bildgröße bestimmt den zum Speichern der Bilddatei erforderlichen Speicherplatz, der im Allgemeinen in Bytes (B) gemessen wird. Die Berechnungsformel lautet: Anzahl der Bytes = (Bitmap-Höhe × Bitmap-Breite × Bildtiefe) / 8. Aus der Berechnungsformel ist ersichtlich, dass die Speichergröße der Bilddatei in direktem Zusammenhang mit der Anzahl der Pixel steht.
Bildfarbe
Unter Bildfarbe versteht man die größte Anzahl möglicher Farbtypen in einem digitalen Bild. Durch Ändern der Anteile der drei Primärfarben Rot, Grün und Blau können diese problemlos zu jeder Farbe gemischt werden.
Bildtiefe
Die Bildtiefe, auch Bittiefe des Bildes genannt, bezieht sich auf die Anzahl der Bits, die jedes Pixel im Bild einnimmt. Die jedem Pixel des Bildes entsprechenden Daten können normalerweise durch 1 oder mehr Bytes dargestellt werden. Je tiefer die Datentiefe, desto mehr Bits sind erforderlich und desto satter ist die entsprechende Farbdarstellung.
Bildton
Der Bildfarbton bezieht sich auf die Helligkeit und Dunkelheit verschiedener Bildfarben, die den Primärfarben entsprechen (zu den Primärfarben digitaler Bilder im RGB-Format gehören beispielsweise Rot, Grün und Blau. Die Anpassung des Farbtons im täglichen Leben ist die Anpassung von.) die Helligkeit der Primärfarben. Der Farbton reicht von 0 bis 255, einschließlich insgesamt 256 Farbtönen. Das einfachste Graustufenbild unterteilt den Farbton beispielsweise in 256 Farbtöne von Weiß bis Schwarz. Bei RGB-Bildern ist es notwendig, die Helligkeit und Dunkelheit der drei Farben Rot, Grün und Blau zu charakterisieren. Wenn beispielsweise der Rotton vertieft ist, wird das Bild tendenziell dunkelrot sein, und wenn der Grünton dunkler ist Vertieft wird das Bild tendenziell dunkelgrün.
Bildsättigung
Die Bildsättigung gibt die Reinheit der Farben im Bild an. Die Sättigung eines natürlichen Szenenfotos hängt von den reflektierenden oder projizierten Eigenschaften des Objekts ab. Bei der digitalen Bildverarbeitung wird die Sättigung im Allgemeinen anhand des Anteils an weißem Licht gemessen, das zu einer Volltonfarbe gemischt wird. Je mehr weißes Licht zu einer Volltonfarbe gemischt wird, desto geringer ist die Sättigung und desto höher ist die Sättigung.
Bildhelligkeit
Unter Bildhelligkeit versteht man die Helligkeit und Dunkelheit der in digitalen Bildern enthaltenen Farben. Dabei handelt es sich um die Wahrnehmung der Helligkeit und Dunkelheit des Objekts selbst. Der Wertebereich liegt im Allgemeinen zwischen 0 % und 100 %.
Bildkontrast
Unter Bildkontrast versteht man den Kontrast zwischen verschiedenen Farben oder den Kontrast zwischen Hell und Dunkel in einem Bild. Je größer der Kontrast, desto größer ist der Helligkeitsunterschied zwischen den Farben bzw. desto größer ist der Unterschied zwischen Schwarz und Weiß. Wenn Sie beispielsweise den Kontrast eines Graustufenbilds erhöhen, wird der Unterschied zwischen Schwarz und Weiß im Bild deutlicher, wodurch das Bild schärfer erscheint. Wenn der Kontrast auf das Äußerste erhöht wird, wird aus dem Graustufenbild ein Schwarzweißbild.
Bildhierarchie
Um Bildmaterialien bequemer und effektiver verarbeiten zu können, werden sie in Computerdesignsystemen normalerweise in verschiedenen Schichten platziert, und das Bild kann als aus mehreren übereinander liegenden Bildschichten zusammengesetzt betrachtet werden. Mithilfe einer Bildverarbeitungssoftware kann jede Ebene unabhängig verarbeitet werden, ohne dass sich dies auf den Bildinhalt anderer Ebenen auswirkt. Wenn Sie eine neue Bilddatei erstellen, erstellt das System automatisch eine Hintergrundebene dafür, die einer Leinwand entspricht, auf der andere Bildbearbeitungsarbeiten durchgeführt werden können. Wenn ein Bild mehrere Ebenen hat, hat jede Ebene die gleiche Anzahl an Pixeln, Kanälen und das gleiche Format.
Grundlegende Beziehung zwischen Pixeln
Grundbeziehung
Ein Bild f(x,y) besteht aus grundlegenden Einheitspixeln. Es gibt bestimmte Verbindungen zwischen Pixeln, einschließlich Pixelnachbarschaften, Nachbarschaften und Verbindungen sowie den Abstand zwischen Pixeln. Normalerweise wird bei der Angabe eines bestimmten Pixels ein Kleinbuchstabe (z. B. p) verwendet.
Bereich
Die Nachbarpixel des Pixels p bilden die Nachbarschaft dieses Pixels
4 Bereiche
8 Bereiche
diagonales Feld
Nachbarschaft
Wenn sich bei zwei beliebigen Pixeln ein Pixel in der Nähe eines anderen Pixels befindet und ihre Graustufenwerte bestimmte Ähnlichkeitskriterien erfüllen (z. B. Zugehörigkeit zu einem bestimmten Graustufenwertsatz), gelten die beiden Pixel als benachbart.
4 Nachbarschaften
8 Nachbarschaften
m angrenzend
Wenn eine der beiden folgenden Bedingungen erfüllt ist
q liegt in der 4-Nachbarschaft von p
q liegt in der Diagonaldomäne von p und kein Grauwert im Pixel am Schnittpunkt der 4-Domänen-Nachbarschaft von q und der 4-Domänen-Domäne von p gehört zu V.
Dann heißen die beiden Punkte p und q m benachbart.
in Verbindung gebracht
4-verbunden
8-Verbunden
m-verbunden
Distanz
Euklidische Entfernung
städtische Entfernung
Brettabstand
Digitale Bildverarbeitungsanwendungen
Industrielle Anwendungen
Zerstörungsfreie Prüfung von Produkten und Komponenten, die in der Produktionslinie hergestellt werden, beispielsweise die Prüfung von Glasflaschen
Anwendungen für die öffentliche Sicherheit
Die Identifizierung per Fingerabdruck ist sicher, zuverlässig und effizient und hat ein breites Anwendungsspektrum in der öffentlichen Sicherheit, Informationssicherheit, im E-Commerce und in anderen Bereichen.
Die Authentifizierung der persönlichen Identität umfasst auch Bilder wie Gesicht, Iris, Handabdruck und Unterschrift.
medizinische Anwendungen
Das Blutbild, der Hauptinhalt der routinemäßigen Blutuntersuchung, wichtige Daten zum Vorliegen oder Fehlen einer Erkrankung und zur Schwere der Erkrankung.
Geologische Anwendungen
Mit der Bohrlochkameratechnologie kann ein großräumiger Panoramablick auf die Bohrlochwand erstellt werden, um die innere geologische Struktur direkt zu beobachten.
Anwendungen für Umwelttests
Identifizierung und Standort von Bränden: Vergleichen Sie Bilder mit sichtbarem Licht und Infrarotbildern, um Brände zu identifizieren und ihren Standort zu bestimmen.
Marineanwendungen
Nachweis von Enteromorpha Enteromorpha: Mithilfe von Fernerkundungsbildern als Datenquelle wird ein schneller Nachweis von Enteromorpha Enteromorpha erreicht.
Erkennung und Verfolgung von Meeresfischen.
Militärische Anwendungen
Positionierung von Luftaufklärungszielen.
Unterhaltungsanwendungen
Gesicht ändern
Bildtechnik
Bildverarbeitung
Bild -> Bild
Verbesserte visuelle Effekte
Bildvorverarbeitung zur Rauschunterdrückung, Kontrastverstärkung und Bildschärfung
Bildsammlung, Erfassung und Speicherung, Bildverbesserung, Bildwiederherstellung, Bild-(Video-)Komprimierung (Kodierung)
Bildanalyse
Bild -> Daten
nützliche Informationen extrahieren
Bildsegmentierung und Zielbeschreibung, die Ausgabe sind Zielmerkmalsdaten
Kantenerkennung, Bildsegmentierung (Trennen des Zielhintergrunds), Zielausdruck, Beschreibung, Messung, Analyse der Zielfarbe, -form, -textur und -bewegung, Zielerkennung, -extraktion, -verfolgung, -identifizierung und -klassifizierung, Gesichtserkennung
Bildverständnis
Bild -> Erklärung
Durch das Verständnis der Zielobjekte und ihrer Beziehungen werden abstraktere Daten ausgegeben
Bildregistrierung, Matching, Fusion, 3D-Darstellung, Modellierung, Rekonstruktion, Szenenwiederherstellung, Bildverständnis, Argumentation, inhaltsbasierter Bildabruf
Mathematische Transformation von Bildern
Koordinatenraumtransformation
Basiskonzept
Geometrische Transformationen werden oft als Gummifilmtransformationen bezeichnet, wobei davon ausgegangen wird, dass ein Bild auf einen Gummifilm gedruckt wird und der Gummifilm dann gemäß einem vorgegebenen Regelsatz gedehnt wird.
Geometrische Transformationen verändern die räumlichen Beziehungen zwischen Pixeln in einem Bild. Es besteht aus zwei Grundoperationen: der räumlichen Koordinatentransformation (Koordinatentransformation) und dem Graustufenwert des transformierten Koordinatenpixels (Graustufeninterpolation).
Koordinatentransformation
Verkleinern Sie das Originalbild in beide Richtungen um die Hälfte
Affine Transformation
Die in der Bildverarbeitung häufig verwendete Koordinatentransformation ist die affine Transformation
Identitätstransformation
Übersetzungstransformation
Rotationstransformation
Skalentransformation
Schertransformation
Entlang der x-Achse schneiden
Entlang der Y-Achse schneiden
Vorwärtszuordnung und Rückwärtszuordnung
Vorwärtszuordnung: Wenn die Koordinaten eines beliebigen Pixels im Bild angegeben sind, wird die Pixelkoordinatenposition nach der geometrischen Transformation durch die entsprechende Zuordnungsbeziehung erhalten.
Rückwärtszuordnung: Berechnen Sie die Koordinatenposition des Pixels im Quellbild aus den Pixelkoordinaten des Ausgabebilds.
Graustufeninterpolation
Basiskonzept
Um die Pixel auf einem Bild an einer neuen Position neu zu positionieren, müssen diesen neuen Positionen auch Graustufenwerte zugewiesen werden, d. h. Graustufeninterpolation.
Typ
Interpolation des nächsten Nachbarn
Als Interpolationsergebnis wird der Grauwert des Eingabepixels ausgewählt, der der Position, auf die es abgebildet wird, am nächsten liegt.
Nachteile: Wenn sich der Grauwert benachbarter Pixel stark ändert, wird die Feinstruktur grob.
bilineare Interpolation
Entsprechend dem Grauwert von vier benachbarten Punkten wird zweimal in x- und y-Richtung interpoliert. Die Interpolationsfunktion ist die hyperbolische Paraboloidgleichung
Es handelt sich um eine Verbesserung der Methode des nächsten Nachbarn, bei der ein hyperbolisches Paraboloid an vier benachbarte bekannte Punkte angepasst wird.
Nachteile: Die bilineare Interpolationsberechnungsmethode kann im Allgemeinen zufriedenstellende Ergebnisse erzielen, da der Einfluss von vier benachbarten Punkten berücksichtigt wurde. Allerdings verfügt diese Methode über Tiefpassfiltereigenschaften, die zum Verlust hochfrequenter Komponenten führen und die Bildkonturen unscharf machen. Wenn Sie einen genaueren Graustufen-Interpolationseffekt erzielen möchten, können Sie eine Interpolationskorrektur höherer Ordnung verwenden.
bikubische Interpolation
Interpolieren Sie basierend auf dem Grauwert von 16 benachbarten Punkten
Fourier-Transformation
Grundlegende Schritte der Bildverarbeitung im Frequenzbereich
Fourier-Transformation
Fourier-Transformation des Bildes. Anstatt eine Welle zu erhalten, wird dadurch das Bild vom räumlichen Bereich (d. h. der ursprünglichen Pixeldarstellung) in den Frequenzbereich umgewandelt. Im Frequenzbereich wird ein Bild als eine Reihe von Kombinationen von Wellen unterschiedlicher Frequenz dargestellt. Diese Transformation ermöglicht es uns, die Verteilung verschiedener Frequenzkomponenten im Bild zu sehen, einschließlich niederfrequenter Komponenten (die sich langsam ändernde Teile des Bildes darstellen, z. B. glatte Bereiche) und hochfrequenter Komponenten (die sich schnell ändernde Teile wie Kanten darstellen). und Details).
Frequenzbereichsfilterung
Im Frequenzbereich können Sie wählen, ob Sie einen Hochfrequenzfilter oder einen Niederfrequenzfilter auf das Bild anwenden möchten.
Einzelheiten finden Sie unter Frequenzbereichsfilterung zur Bildverbesserung
Inverse Fourier-Transformation
Die gefilterten Frequenzbereichsdaten werden dann über die inverse Fourier-Transformation zurück in den räumlichen Bereich umgewandelt. Das Ergebnis dieser umgekehrten Transformation ist ein modifiziertes Bild, das den Effekt der Frequenzbereichsfilterung widerspiegelt.
Fourier-Reihe und Fourier-Transformation
Unter bestimmten mathematischen Bedingungen kann jede periodische Funktion als Summe von Sinuskurven unterschiedlicher Frequenz ausgedrückt werden.
Wenn bestimmte mathematische Bedingungen erfüllt sind, kann die nichtperiodische Funktion auch als Integral des Sinus multipliziert mit der gewichteten Funktion, also der Fourier-Transformation, ausgedrückt werden.
Durch die Fourier-Reihe oder die Fourier-Transformation dargestellte Funktionsmerkmale können durch die inverse Fourier-Transformation vollständig rekonstruiert werden, ohne dass Informationen verloren gehen.
Eindimensionale diskrete Fourier-Transformation
Zweidimensionale diskrete Fourier-Transformation
Im Spektrogramm eines Graustufenbildes nach der zweidimensionalen Fourier-Transformation entspricht der hellste Teil der niederfrequenten Komponente des Originalbildes.
Niederfrequenzkomponenten: Diese Komponenten repräsentieren sich langsam ändernde Teile des Bildes, beispielsweise allgemeine Graustufenänderungen oder glatte Bereiche. In einem Fourier-Spektrogramm konzentrieren sich niederfrequente Komponenten normalerweise im zentralen Bereich des Bildes.
Hochfrequenzkomponenten: Diese Komponenten repräsentieren sich schnell ändernde Teile des Bildes, wie Kanten und Details. In einem Spektrogramm liegen hochfrequente Komponenten meist weit vom Mittelpunkt entfernt.
Grundlegende Eigenschaften der diskreten Fourier-Transformation
Trennbarkeit
translatorisch
zyklisch
konjugierte Symmetrie
Rotationsinvarianz
Verhältnismäßigkeit
Durchschnittswert
Faltungssatz
Bildverbesserung
Grundkonzepte der Bildverbesserung
Bildverbesserungseigenschaften
Ohne auf die Gründe für die Bildverschlechterung einzugehen, werden Korrekturen basierend auf Bildeigenschaften und Verarbeitungszwecken vorgenommen, um bessere „bessere“ oder „nützlichere“ Bilder zu erhalten.
Bei der Bildverbesserung geht es darum, die Bildqualität für einen bestimmten Anwendungszweck zu verbessern, und die Verarbeitungsergebnisse sind besser für menschliche visuelle Eigenschaften oder maschinelle Erkennungssysteme geeignet.
Eine Verarbeitungsmethode, die je nach Bedarf bestimmte Informationen in einem Bild hervorhebt und gleichzeitig bestimmte unnötige Informationen abschwächt oder entfernt.
Die Verbesserungsverarbeitung kann die Informationen des Originalbilds nicht erhöhen, sondern nur die Erkennungsfähigkeit bestimmter Informationen verbessern. Diese Verarbeitung kann zum teilweisen Verlust anderer Informationen führen.
grundlegende Methode
arbeiten
räumliche Domänenmethode
Die räumliche Domänenmethode bezieht sich auf die direkte Durchführung von Operationen an Pixel-Graustufenwerten im räumlichen Bildbereich. Zu den häufig verwendeten Methoden gehören Graustufentransformation, Histogrammkorrektur, Vorlagenfaltung, Pseudofarbverarbeitung usw.
Frequenzbereichsmethode
Die Frequenzbereichsmethode besteht darin, den Transformationswert des Bildes in einem bestimmten Transformationsbereich des Bildes zu verbessern und dann das verbesserte Bild durch inverse Transformation zu erhalten. Es handelt sich um eine indirekte Verarbeitungsmethode.
Zweck
glatt
Durch die Glättung wird das Bild unscharf, wodurch der Bildübergang natürlicher und weicher wird und Rauschen unterdrückt wird.
Aus der Perspektive der Frequenz basierend auf den Frequenzeigenschaften des Bildes verstanden, besteht die Glättung darin, die niederfrequenten Komponenten im Bild beizubehalten oder zu verstärken und die hochfrequenten Komponenten im Bild zu schwächen oder zu eliminieren.
schärfen
Das Schärfen kann als umgekehrter Vorgang des Glättens betrachtet werden. Der Effekt und Zweck besteht darin, Details hervorzuheben und die Bildkontur klar und kontrastreich zu machen.
Aus Sicht der Frequenzbereichsverarbeitung ist Schärfung die Verstärkung hochfrequenter Komponenten in einem Bild.
Wirkung
Gemäß der Analyse der Frequenzeigenschaften des Bildes wird allgemein angenommen, dass der Kontrast und der Dynamikbereich des gesamten Bildes vom niederfrequenten Teil der Bildinformationen (bezogen auf das Gesamtbild) und von den Kantenkonturen und lokalen Details abhängen im Bild hängen vom Hochfrequenzanteil ab.
Daher kommen bei der Bildverarbeitung zweidimensionale digitale Filterverfahren zum Einsatz. Beispielsweise kann der Einsatz eines Hochpassfilters helfen, Kantenkonturen und Bilddetails hervorzuheben, während der Einsatz eines Tiefpassfilters das Bild glätten und Rauschen reduzieren kann.
Anwendungsbewertungen
Ziemlich subjektiv
In praktischen Anwendungen können mehrere Verbesserungsalgorithmen gleichzeitig zum Testen ausgewählt werden, und der Algorithmus mit besseren visuellen Effekten, relativ geringem Rechenaufwand und Übereinstimmung mit den Anwendungsanforderungen kann ausgewählt werden.
Graustufentransformation
Prinzip der Graustufenzuordnung
Die Graustufenzuordnung ist eine Punktoperation basierend auf Bildpixeln
Entwerfen Sie eine bestimmte Zuordnungsregel entsprechend dem Zweck der Erweiterung und drücken Sie sie mit der entsprechenden Zuordnungsfunktion aus
Die Zuordnungsfunktion kann verwendet werden, um die Graustufen jedes Pixels im Originalbild einer neuen Graustufe zuzuordnen
t=T(s)
Typ
Bildumkehr
Grauwerte werden invertiert, Schwarz wird zu Weiß
Bildinvertierungsoperationen werden häufig verwendet, um Bereiche mit geringem Grauanteil in einem Bild zu verstärken und sie dadurch heller oder hervorstechender zu machen.
Wenn der Hauptteil des Bildes in Graustufen heller ist, wird der Hauptteil durch die Umkehrung möglicherweise dunkler.
Um Bildmotive mit helleren Graustufen hervorzuheben, ist es oft notwendig, andere Bildverbesserungstechniken wie Histogrammausgleich oder Kontrastverstärkung zu verwenden. Der Invertierungsvorgang eignet sich besser zum Hervorheben dunkler Details im Bild.
Kontrast verstärken
Verbessern Sie den Kontrast jedes Teils des Bildes und erhöhen Sie tatsächlich den Dynamikbereich zwischen zwei Grauwerten im Bild.
Komprimierung des dynamischen Bereichs
Im Gegenteil, manchmal ist der Dynamikbereich des Originalbilds zu groß und überschreitet den zulässigen Dynamikbereich einiger Anzeigegeräte. Wenn das Originalbild direkt verwendet wird, gehen möglicherweise einige Details verloren.
Ändern Sie die Graustufenverteilung durch Funktionstransformation
Passt den Graustufenwert jedes Pixels im Bild durch Anwendung einer mathematischen Funktion an
lineare Transformation
nichtlineare Transformation
s=cr^γ
Oben links ist das Originalbild: c=1, Y ist 3,0, 4,0 bzw. 5,0.
Histogramm
Histogrammdefinition
Ein Graustufenhistogramm ist ein statistisches Diagramm, das die Graustufenverteilung eines Bildes darstellt.
Die Abszisse ist die Graustufe, im Allgemeinen dargestellt durch r, und die Ordinate ist die Anzahl der Pixel mit dieser Graustufe oder die Wahrscheinlichkeit, dass diese Graustufe auftritt.
Eigenschaften von Histogrammen
Ein Bild entspricht einem Histogramm, aber das Histogramm entspricht nicht unbedingt nur einem Bild.
Das Histogramm kann nur die Wahrscheinlichkeit des Auftretens von Graustufenpixeln zählen und nicht die Position des Pixels im Bild widerspiegeln.
Der Histogrammausgleich wird hauptsächlich zur Verbesserung des globalen Kontrasts des Bildes verwendet, während Glättung und Schärfung dazu dienen, den lokalen Kontrast bzw. die Details des Bildes zu verringern bzw. zu erhöhen.
In einigen Sonderfällen ändert der Histogrammausgleich den Kontrast möglicherweise nicht wesentlich oder verringert ihn sogar geringfügig.
Bereits einheitliches Histogramm: Wenn das Histogramm eines Bildes bereits gleichmäßig verteilt ist oder die Helligkeitsverteilung nahezu gleichmäßig ist, ändert sich durch die Durchführung des Histogrammausgleichs möglicherweise nicht der Kontrast.
Spezielle Helligkeitsverteilung: In einigen Situationen mit besonderer Helligkeitsverteilung kann der Histogrammausgleich in einigen Bereichen zu Detailverlusten führen, wodurch der Kontrast in diesen Bereichen verringert werden kann.
Extreme Konzentrationen von Luminanzwerten: Wenn ein großer Anteil der Pixel in einem Bild an den äußersten Enden des Luminanzbereichs (sehr hell oder sehr dunkel) konzentriert ist, kann der Histogrammausgleich in diesen Bereichen zu einem verringerten Kontrast führen.
Histogramm und Graustufenverteilung des Bildes
Histogrammausgleich
Die Graustufenverteilung des Bildes sollte den gesamten Graustufenbereich voll ausnutzen und die Anzahl der Pixel auf jeder Graustufenstufe sollte ungefähr gleichmäßig verteilt sein.
Dies wird erreicht, indem das Histogramm des Bildes so angepasst wird, dass das Histogramm des Ausgabebildes möglichst gleichmäßig verteilt wird und dadurch die Helligkeitsverteilung im Bild gleichmäßiger wird.
Nicht glätten oder schärfen
Histogrammspezifikation
Grau gleicht das ursprüngliche Histogramm aus
Geben Sie das erforderliche Histogramm an und berechnen Sie eine Transformation, die das angegebene Histogramm ausgleicht.
Ordnen Sie das ursprüngliche Histogramm dem angegebenen Histogramm zu
Verglichen
Operationen zwischen Bildern
Rechenoperationen
Additionsoperation
C(x,y)=A(x,y) B(x,y)
Der Mittelwert von M Bildern ist definiert als
g(x,y)=1/M(g0(x,y) g1(x,y) … gM(x,y))
Anwendung
Entfernen Sie „additives“ Zufallsrauschen
Bildüberlagerungseffekte erzeugen
Subtraktion
C(x,y) = A(x,y) - B(x,y)
Anwendung
Beseitigen Sie Hintergrundeffekte
Differenzschattenmethode
Subtrahieren Sie Bilder derselben Szene, die zu unterschiedlichen Zeiten aufgenommen wurden, oder Bilder derselben Szene in verschiedenen Wellenbändern, um Änderungen zwischen zwei Bildern derselben Szene zu erkennen.
Es kann zur Steuerung der dynamischen Überwachung, zur Erkennung und Verfolgung bewegter Ziele, zur Eliminierung des Bildhintergrunds und zur Zielerkennung usw. verwendet werden.
Multiplikation
C(x,y) = A(x,y) * B(x,y)
Anwendung
Teilweise Anzeige des Bildes
Divisionsbetrieb
C(x,y) = A(x,y)/ B(x,y)
Anwendung
Wird häufig in der Fernerkundungsbildverarbeitung verwendet
logische Operation
Nur für Binärbilder (0 und 1) verfügbar
Einstufung
AND (AND): geschrieben als p AND q (kann auch als p·q oder pq geschrieben werden)
Oder (OR): geschrieben als p OR q (kann auch als p q geschrieben werden)
KOMPLEMENT (KOMPLETT, auch oft Negation oder nicht genannt): geschrieben als NOT q (kann auch geschrieben werden als )
räumliche Filterung
Die Filterung im räumlichen Bereich erfolgt direkt auf Pixel, während die Filterung im Frequenzbereich die Bearbeitung der Frequenzkomponenten des Bildes beinhaltet.
Nachbarschaftsoperationen mithilfe von Vorlagen im Bildraum
Kategorie 1
Linear: Methode des Nachbarschaftsdurchschnitts
Grundlegend
Der grundlegendste Bildglättungsalgorithmus
Die Glättung kann im räumlichen Bereich oder im Frequenzbereich durchgeführt werden
Nehmen Sie jedes Pixel im Bild als Mittelpunkt, um dessen Domäne R zu übernehmen, und berechnen Sie den graustufengewichteten Durchschnitt aller Pixel in der Nachbarschaft als Ausgabe des mittleren Pixels
Haupteffekt
Eliminieren oder reduzieren Sie Rauschen und verbessern Sie die Bildqualität
Verwischen Sie Bilder, damit sie weich und natürlich wirken
Umsetzungsprozess
Wird normalerweise mithilfe einer Vorlagenfaltungsoperation implementiert
Spezifische Schritte
Schieben Sie die Vorlage im Bild von links nach rechts und von oben nach unten, und jeder Positionspunkt in der Vorlage stimmt mit einem bestimmten Pixel im Bild überein.
Multiplizieren Sie den Koeffizienten an jeder Position der Vorlage mit dem Grauwert des Pixels, mit dem er übereinstimmt.
Summiere alle Produkte;
Weisen Sie das Summationsergebnis dem Pixel zu, das der Mitte der Vorlage entspricht.
Vorlageformular
Merkmale
Das Koeffizientenverteilungsmuster ist im Allgemeinen in der Mitte groß und in den umliegenden Bereichen klein.
Die Summe der Koeffizienten ist gleich 1, um sicherzustellen, dass die Gesamtgraustufe vor und nach der Bildverarbeitung unverändert bleibt.
Um den Rand besser zu erhalten, können Sie auch kreuzförmige, gerade geformte und andere Schablonen verwenden
Nichtlinearität: Medianfilterung
Algorithmusprinzip
Verwenden Sie ein Fenster mit einer ungeraden Anzahl von Pixeln, um das Bild einzublenden, und ersetzen Sie den Grauwert des Mittelpunkts des Fensters durch den mittleren Grauwert jedes Punkts im Fenster.
Eigenschaften des Algorithmus
Es handelt sich um eine nichtlineare Verarbeitungstechnologie
Im Vergleich zur Nachbarschaftsdurchschnittsmethode kann die Medianfilterung die durch lineare Filter verursachte Unschärfe von Bilddetails bis zu einem gewissen Grad überwinden und ist besonders wirksam bei Impulsinterferenzen und Bildabtastrauschen. Während das Rauschen entfernt wird, können die Schärfe von Kanten und Bilddetails besser erhalten bleiben.
An den Rändern im Bild ändert sich die Graustufe oft in Schritten oder Steigungen, und der Medianfilter kann sie gut beibehalten, ohne dass es zu Unschärfen kommt.
Im Allgemeinen kann die Medianfilterung die Ränder des Bildes gut beibehalten und gleichzeitig Rauschen filtern, was mit der linearen Mittelwertfilterung schwer zu erreichen ist.
Darüber hinaus hängt der Filtereffekt von der Größe des Fensters ab. Eine sinnvolle Auswahl der Fenstergröße ist der Schlüssel zur guten Nutzung der Medianfilterung.
Verbessert den Bildkontrast nicht
Kategorie 2
glatt
Nachbarschaftsdurchschnittsmethode
Medianfilter
schärfen
Basiskonzept
Zweck: Verbessern Sie die detaillierten Kanten und Konturen der Szene im Bild.
Funktion: Verbessern Sie den Graustufenkontrast.
Grundlagen: Da sich Kanten und Konturen dort befinden, wo Grauwertmutationen auftreten, besteht die Differentialoperation darin, die Änderungsrate des Grauwerts zu ermitteln. Daher basiert der Schärfungsalgorithmus auf Differentialoperationen (Differenzoperationen).
Operator: ist ein in Mathematik und Physik weit verbreitetes Konzept zur Beschreibung einer Regel oder Funktion, die ein Element (oder eine Menge von Elementen) einem anderen Element (oder einer Menge von Elementen) zuordnet. Operatoren können einfache mathematische Operationen wie Addition oder Multiplikation oder komplexere Operationen wie Differentiation, Integration oder lineare Transformationen sein.
Differenzkurve
Methode
Gradientenmethode
Laplace-Methode
Richtungsfilterung
Linearer Schärfungsfilter
Gehört zur linearen Transformation
Ideen für Algorithmen
Die Bildschärfung kann als umgekehrter Vorgang der Glättung angesehen werden. Der Zweck besteht darin, Bilddetails und -kanten zu verbessern und das Bild unscharf zu machen.
Um den Zweck der Schärfung zu erreichen, können Sie versuchen, die detaillierten Informationen des zu verbessernden Bildes zu extrahieren und es dann zu verbessern.
Das Wesen der räumlichen Glättung besteht darin, eine lokale Mittelung am Bild durchzuführen, was eine Integraloperation ist. Dementsprechend kann die Bildschärfung durch die umgekehrte Operation des Integrals – „Differential“ – erreicht werden.
Bei der Differentialoperation wird die Änderungsrate des Signals ermittelt. Die Stellen, an denen die Änderung schnell erfolgt, sind die Details und Kanten im Bild. Durch das Hinzufügen des Differenzergebnisses zum Originalbild entsprechend einem bestimmten Verhältnis können die Bildkonturen klarer und Details hervorgehoben werden.
Differentialoperator erster Ordnung
Differentialoperator erster Ordnung
Zweidimensionaler Differentialoperator erster Ordnung
Zwei Differenzoperationen zum Finden von Gradienten
horizontaler vertikaler Unterschied
Kreuzunterschied
Einweg-Differentialalgorithmus erster Ordnung
Konzept
Der Einweg-Differentialalgorithmus erster Ordnung bezieht sich auf die Bereitstellung von Kanteninformationen in einer bestimmten Richtung.
Das Bild besteht aus horizontalen und vertikalen Richtungen. Daher führt der Einwegdifferenzalgorithmus tatsächlich eine Schärfung in horizontaler oder vertikaler Richtung durch.
Einstufung
Horizontaler Schärfungsalgorithmus
Die horizontale Schärfung ist sehr einfach und wird durch eine Vorlage erreicht, die Änderungen der Pixelwerte in horizontaler Richtung erkennen kann.
Vertikaler Schärfungsalgorithmus
Dies wird durch eine Vorlage erreicht, die Änderungen der Pixelwerte in vertikaler Richtung erkennen kann.
Kreuzdifferentialalgorithmus
Im Berechnungsergebnis erscheint ein Pixelwert kleiner als Null.
Lösung: Sie können eine einfache Zuordnung erstellen
[gmin,gmax]→[0,255]
Differentialoperator zweiter Ordnung
Formel
Operator
Laplace-Operator
Laplace-Deformationsoperator
Protokollbetreiber
Hundeführer
Vergleich der Kantenextraktionseffekte des Differentials erster Ordnung und des Differentials zweiter Ordnung
Die vom Sobel-Operator erhaltene Grenze ist eine relativ grobe Grenze mit weniger Grenzinformationen, aber relativ klar.
Die durch den Laplace-Operator erhaltene Grenze ist eine relativ detaillierte Grenze. Die Grenzen umfassen viele Details, sind aber nicht zu klar.
Frequenzbereichsfilterung
Tiefpassfilter
Prinzip
Hochfrequenz und Niederfrequenz
Niederfrequenzkomponenten: Niederfrequenzkomponenten stellen langsame räumliche Änderungen im Bild dar, d. h. in diesen Bildbereichen ändern sich die Pixelwerte (entweder Helligkeit oder Farbe) langsam. Dies entspricht normalerweise großen, gleichmäßigen Bereichen im Bild, wie z. B. ruhigen Himmeln, Wänden oder anderen Teilen ohne viel Textur und Kanten. Die niederfrequente Komponente hängt mit den globalen Informationen im Bild zusammen, wie z. B. der Helligkeit des Hintergrunds, dem Farbverlauf usw.
Hochfrequenzkomponenten: Hochfrequenzkomponenten stellen schnelle räumliche Änderungen im Bild dar, das heißt, in diesen Bildbereichen ändern sich die Pixelwerte schnell. Dies entspricht normalerweise detaillierten Teilen des Bildes wie Kanten, Texturen, Muster und Rauschen. Die Hochfrequenzkomponenten offenbaren lokale Merkmale im Bild, wie etwa die Konturen von Objekten, Details von Texturen usw.
Mithilfe der Frequenzbereichsfilterung können bestimmte Inhalte eines Bildes gezielt verstärkt oder unterdrückt werden. Mittels Tiefpassfilterung können hochfrequente Anteile reduziert werden, um eine Bildglättung zu erreichen.
gehört zu glatt
Tiefpassfilter
Idealer Tiefpassfilter (ILPF)
D0 ist die Grenzfrequenz des Filters, eine nicht negative Größe
D(u,v) ist der Abstand vom Punkt (u,v) auf der Frequenzebene zum Ursprung
Durch die Tiefpassfilterung werden hochfrequente Anteile reduziert, Rauschen und Bildränder werden abgeschwächt und das Bild wird unscharf.
Ein idealer Tiefpassfilter hat einen Nachschwingeffekt
Butterworth-Tiefpassfilter (BLPF)
Im Vergleich zum idealen Tiefpassfilter gibt es beim Butterworth-Filter keinen offensichtlichen Sprung zwischen Durchlassband und Sperrband, und der Übergang zwischen hohen und niedrigen Frequenzen ist relativ glatt, sodass das erhaltene Ausgangsbild kein offensichtliches Nachklingen aufweist.
Aus der Kennlinie der Übertragungsfunktion ist ersichtlich, dass eine bestimmte Hochfrequenz am Ende erhalten bleibt, sodass die Rauschfilterwirkung nicht so gut ist wie die des idealen Tiefpassfilters.
Exponentieller Tiefpassfilter (ELPF)
Leiter-Tiefpassfilter (TLPF)
Vergleich der Filterwirkung
Die Ergebnisse der Tiefpassfilterung weisen unterschiedliche Grade an Unschärfe auf. Mit zunehmender Grenzfrequenz wird die Unschärfe des Bildes heller.
Bei gleicher Grenzfrequenz weist das Ergebnis der ELPF-Verarbeitung die geringste Unschärfe auf, gefolgt von BLPF, und ILPF weist die stärkste Unschärfe auf.
Wenn die Grenzfrequenz niedrig ist, sind die Filtereffekte verschiedener Filter sehr unterschiedlich. Mit zunehmender Grenzfrequenz konvergieren die Filterergebnisse allmählich.
ILPF und TLPF weisen ein offensichtliches „Klingel“-Phänomen auf, und die Schwingungsfrequenz nimmt mit zunehmender Grenzfrequenz zu. BLPF und ELPF weisen kein offensichtliches „Klingel“-Phänomen auf.
Hochpassfilter
Prinzip
Bildkanten entsprechen hochfrequenten Komponenten im Spektrum, daher können Hochpassfilter zum Extrahieren von Bildkanten verwendet werden.
Durch die Überlagerung mit dem Originalbild können die Kanten klarer werden und dadurch das Bild schärfer werden.
Gehört zum Schärfen
Algorithmus
Für den Tiefpassfilter, der dem glatten Teil des Bildes entspricht, kann der entsprechende Hochpassfilter erhalten werden.
Ein Hochpassfilter kann ausgedrückt werden als (1 Tiefpassfilter)
Homomorphe Filterung
Homomorphe Filterung ist eine spezielle Bildverarbeitungstechnologie, die sowohl Bildglättungs- als auch Schärfungseigenschaften enthält, deren Hauptzweck jedoch nicht nur darin besteht, Bilder zu glätten oder zu schärfen. Homomorphe Filterung wird hauptsächlich verwendet, um die Lichtverhältnisse des Bildes zu verbessern und die Bildqualität zu verbessern, indem gleichzeitig der Kontrast des Bildes erhöht und der Dynamikbereich des Bildes komprimiert wird.
Beleuchtungsreflexionsmodell
Die homomorphe Filtertechnologie ist eine Filtermethode, die auf dem Prinzip der Beleuchtungsreflexionsabbildung des Bildes basiert.
Im Frequenzbereich ist es möglich, gleichzeitig den Helligkeitsbereich des Bildes zu komprimieren und den Kontrast zu erhöhen, was sich besonders für Bilder eignet, die durch ungleichmäßige Beleuchtung verursacht werden.
Das vom Beobachter oder Bildgebungssystem erhaltene Bild hängt im Allgemeinen vom reflektierten Licht auf dem Ziel ab, das unterteilt wird in ① die Menge des auf die Szene einfallenden sichtbaren Lichts ② die Menge des vom Ziel in der Szene reflektierten Lichts
Die Menge des einfallenden Lichts hängt von der Außenbeleuchtung ab, während der Reflexionskoeffizient von den Eigenschaften des Objekts abhängt.
Helle, glatte Oberflächen haben große Reflexionskoeffizienten
Dunkle, raue Oberflächen haben kleine Reflexionskoeffizienten
Algorithmusprinzip
Das Bild wird als Produkt aus Beleuchtungsanteil und Reflexionsanteil dargestellt
Der Beleuchtungsanteil verändert sich langsam im Raum und wird von niederfrequenten Anteilen dominiert.
Die Reflexionskomponente ändert sich drastisch an der Grenzfläche verschiedener Objekte im Raum, spiegelt Oberflächenveränderungen und Details wider und enthält viele Hochfrequenzkomponenten.
Die Beleuchtungskomponente und die Reflexionskomponente liegen in unterschiedlichen Frequenzbändern. Sie können die logarithmische Methode verwenden, um ihre Multiplikation in eine Addition umzuwandeln, und dann unterschiedliche Behandlungen für diese beiden Teile verwenden.
Die Beleuchtungskomponente hat eine niedrige Frequenz und die niedrige Frequenz kann unterdrückt werden, um eine ungleichmäßige Beleuchtung zu vermeiden. Gleichzeitig können hochfrequente Anteile verstärkt werden, um Bilddetails hervorzuheben.
Handle-Instanz
Gleichzeitig werden die tiefen Frequenzen reduziert und die hohen Frequenzen verstärkt, der Dynamikbereich des Bildes komprimiert und der Kontrast zwischen verschiedenen Teilen verbessert.
Bildwiederherstellung
Uneingeschränkte Bildwiederherstellung
Der Bildverschlechterungsprozess kann als Transformation betrachtet werden
Das Finden von f(x,y) aus g(x,y) ist der Prozess des Findens seiner inversen Transformation
In der Praxis gibt es für T(-1) viele Situationen
T(-1) existiert nicht, also singulär
T(-1) existiert, ist aber nicht eindeutig
T(-1) existiert und ist eindeutig, aber kleine Störungen in g(x, y) führen zu großen Änderungen in f(x, y)
T(-1) existiert und ist eindeutig, aber seine Lösung ist zu kompliziert oder fast unlösbar
T(-1) existiert, ist eindeutig, hat keine schlecht gestellten Probleme und kann gelöst werden
Bei linearen verschiebungsinvarianten Systemen ausgehend vom Matrixausdruck des entarteten Modells
Da das Rauschen hier verallgemeinert ist, müssen wir eine Schätzung von f finden und die folgende Formel im Sinne der kleinsten Quadrate minimieren.
Inverse Filtermethode zur Wiederherstellung des Bildes
Wiener-Filter-Methode
Bildkompression
verlustfreie Kodierung
Codierung mit variabler Länge
Huffman-Codierung
Arithmetische Codierung
Kodierung mit fester Länge
Lauflängenkodierung
Bitebenenkodierung
LZW-Kodierung
verlustbehaftete Codierung
Prädiktive Codierung
Codierung transformieren
Bildsegmentierung
Übersicht über die Bildsegmentierung
Warum sich trennen?
Bei der Segmentierung wird das Bild in nicht überlappende Bereiche unterteilt und die interessierenden Bereiche extrahiert.
Status
Die Bildsegmentierung ist ein wichtiger Schritt beim Übergang von der Bildverarbeitung zur Bildanalyse und zum Bildverständnis und auch eine grundlegende Computer-Vision-Technologie.
Konzept
Die Summe (Vereinigung) aller Unterregionen sollte alle Pixel im Bild umfassen, oder die Segmentierung sollte jedes Pixel im Bild in eine bestimmte Unterregion unterteilen.
Die einzelnen Unterregionen überlappen sich nicht miteinander, oder ein Pixel kann nicht gleichzeitig zu zwei Regionen gehören.
Pixel, die zum selben Bereich gehören, sollten dieselben Eigenschaften aufweisen und die Bereichsgrenzen sollten klar sein.
Pixel, die zu verschiedenen Regionen gehören, sollten unterschiedliche Eigenschaften haben.
Es ist erforderlich, dass Pixel im gleichen Unterbereich verbunden werden.
Natur
Innerhalb einer Region: Ähnlichkeit
Methode: Suchen Sie anhand der Ähnlichkeit der Grauwerte der Bildpixel durch Auswahl eines Schwellenwerts den Bereich mit ähnlichem Grauwert. Die äußere Kontur des Bereichs ist die Kante des Zielobjekts.
Zwischen Regionen: Diskontinuitäten
Methode: Suchen Sie entsprechend der Diskontinuität des Grauwerts des Bildpixels zunächst die Punkte, Linien und Kanten und bestimmen Sie dann die Fläche.
Ideen
1) Von einfach bis schwierig, schrittweise aufteilen:
2) Kontrollieren Sie die Hintergrundumgebung und verringern Sie die Schwierigkeit der Segmentierung.
3) Konzentrieren Sie sich auf die Verbesserung des interessierenden Objekts und die Reduzierung der Interferenz irrelevanter Teile.
Methode
Eine Klasse von Segmentierungsmethoden, die auf der Ähnlichkeit von Grauwerten innerhalb der Region basieren. Bestimmen Sie den Bereich, zu dem jedes Pixel gehört, um eine Bereichskarte zu erstellen
Schwellensegmentierungsmethode
regionales Wachstum
geteilte Zusammenführung
Morphologische Segmentierung
Eine Klasse von Segmentierungsmethoden, die auf der Grauwertdiskontinuität zwischen Regionen basiert. Die kantenbasierte Segmentierungsmethode extrahiert zunächst die Bereichsgrenze und bestimmt dann den durch die Grenze begrenzten Bereich.
Segmentierungsmethode zur Kantenerkennung
Hough-Transformation
Erfordern
Wirksamkeit
Ganzheit
Genauigkeit
Stabilität
Schwellensegmentierung
Übersicht über die Schwellenwertsegmentierung
Prinzip
Das Bild enthält: Ziel und Hintergrund; es gibt Unterschiede in den Graustufeneigenschaften zwischen den beiden; die Auswahl eines geeigneten Schwellenwerts und die schließliche Segmentierung, um ein Binärbild zu erzeugen;
Schritt
Bestimmen Sie den geeigneten Segmentierungsschwellenwert
Vergleichen Sie jeden Pixelwert mit einem Schwellenwert, um den Pixelbesitz zuzuweisen
Klassifizierung von Schwellenwerten
Merkmale
Die Berechnung ist einfach
Besonders effektiv für die Bildsegmentierung mit starkem Kontrast zwischen Ziel und Hintergrund.
Nicht überlappende Regionen können immer mit geschlossenen und verbundenen Grenzen definiert werden
Kann auf andere Merkmale wie Textur, Farbe usw. verallgemeinert werden.
Histogrammschwelle
Die Grundidee
Die Pixel-Graustufenwerte innerhalb des Ziels und des Hintergrunds sind sehr ähnlich, während die Pixel-Graustufen auf beiden Seiten ihrer Verbindung sehr unterschiedlich sind. Das Histogramm des Bildes kann grundsätzlich als Überlagerung zweier unimodaler Histogramme des Ziels und des Ziels betrachtet werden der Hintergrund. Wenn der Graustufenunterschied zwischen Ziel und Hintergrund relativ groß ist, sollte das Histogramm des Bildes bimodal sein.
Schwellenwertauswahl
Nehmen Sie den Grauwert am unteren Rand (Minimalwert) des Histogramms als Schwellenwert T.
Bestehende Probleme und Verbesserungen
Der Mindestwert ist anfällig für Rauschstörungen und entspricht nicht dem gewünschten Schwellenwert.
Verbessern
Nehmen Sie eine feste Position zwischen den beiden Spitzen ein, beispielsweise die Mittelposition. Da der Spitzenwert den typischen Wert innerhalb und außerhalb des Bereichs darstellt, ist er im Allgemeinen zuverlässiger als die Auswahl des Tals und kann Störungen durch Rauschen beseitigen.
Verstärken Sie die Verarbeitung von Rauschen, z. B. das Glätten von Histogrammen usw.
optimale Schwelle
Frage
Das Bildhistogramm weist kein Doppelspitzen- und Talphänomen auf, und selbst wenn der Schwellenwert ein Doppelspitzen- und Talphänomen aufweist, ist der Talpunkt kein genauer Schwellenwertpunkt.
Gedanke
Minimieren Sie die Wahrscheinlichkeit eines Segmentierungsfehlers, auch bekannt als minimaler Fehlerwahrscheinlichkeitsschwellenwert.
spezifische Methoden
Legen Sie die Wahrscheinlichkeit von Ziel und Hintergrund sowie deren Grauverteilungswahrscheinlichkeitsdichtefunktion fest.
Ermitteln Sie bei gegebenem Schwellenwert t die Segmentierungsfehlerwahrscheinlichkeit jeder Klasse.
Finden Sie die gesamte Segmentierungsfehlerwahrscheinlichkeit e(t) unter diesem Schwellenwert.
Der optimale Schwellenwert T wird aus dem Minimalwert der gesamten Segmentierungsfehlerwahrscheinlichkeit e(t) berechnet.
Maximaler Schwellenwert für die klassenübergreifende Varianz
Die Grundidee
Der ausgewählte Schwellenwert usw. maximiert den Gesamtunterschied zwischen dem Segmentierungsziel und dem Hintergrundbereich. Bis zu einem gewissen Grad kann davon ausgegangen werden, dass das Segmentierungsergebnis das optimale Niveau erreicht hat. Dieser Unterschied zwischen Regionen wird oft durch Varianz beschrieben.
Die Varianz ist eine Funktion des Schwellenwerts k. Wenn sich k ändert, ändert sich auch die Varianz zwischen den Regionen. Wählen Sie den k aus, der die Varianz maximiert, was auch als maximaler Interklassen-Varianzschwellenwert bezeichnet wird.
Der Lösungsprozess der maximalen Varianzschwelle zwischen Klassen erfordert keine manuelle Einstellung anderer Parameter und wird vom Computer vollständig automatisch ausgewählt. Es ist nicht nur auf die Segmentierung zweier Regionen anwendbar, sondern kann auch auf die Situation mehrerer Regionen ausgeweitet werden.
spezifische Methoden
passieren
Kantenerkennungssegmentierung
Das Prinzip der Kantenerkennungssegmentierung
Kantendefinition
Die Sammlung der Pixel in einem Bild, die eine Stufen- oder Dachänderung in der Graustufe aufweisen.
Klassifizierung von Kanten
Das Prinzip der Kantenerkennungssegmentierung
Die Bildsegmentierung wird erreicht, indem die Grenzen verschiedener Bereiche im Bild ermittelt werden. Es handelt sich um eine große Klasse von Bildsegmentierungsmethoden, die auf Grenzen basieren.
Kantenerkennungsoperator erster Ordnung
Ein guter Erkennungsbetreiber muss drei Indikatoren erfüllen:
Hohe Genauigkeit: enthält mehr echte Kanten und weniger falsche Kanten;
Hohe Genauigkeit: Die erkannten Kanten sollten auf den wahren Grenzen liegen;
Ein-Pixel-Breite: Äußerst selektiv und reagiert einzigartig auf Kanten.
Normalerweise wird der Maximalwert des Differentials erster Ordnung zur Erkennung von Kanten verwendet.
Gradientenoperator
Gleich wie „Kreuzdifferenzierungsalgorithmus“
Andere Richtungsoperatoren
Operatoren wie Roberts, Prewitt und Sobel enthalten nur Vorlagen in zwei Richtungen und können nur wenige Kantenrichtungen erkennen. Je mehr Richtungen die Differentialvorlage hat, desto mehr Kanten in mehr Richtungen können erkannt werden.
Kirsch-Operator
8 Richtungen bilden einen eingeschlossenen Winkel von 45°
Verwendung: 8 Vorlagen werden jeweils mit dem Bild gefaltet, um Graustufenänderungen in 8 Richtungen zu erkennen. Die Richtung mit der größten Änderung ist die Richtung der Kante. Die ersten vier Richtungsvorlagen des 5×5-Kirsch-Operators lauten wie folgt:
Geschickter Betreiber
Merkmale
Es gibt Probleme: ungenaue Position; Nicht-Einzelpixel-Breite usw.
Bedienschritte zur Kantenerkennung
Glätten Sie das Bild mit einer Gaußschen Filtervorlage.
Berechnen Sie die Größe und Richtung des Gradienten des geglätteten Bildes.
Wenden Sie maximale Unterdrückung auf die Gradientenamplitude an.
Stellen Sie sicher, dass es sich um den Maximalwert in Gradientenrichtung handelt.
Erkennen und Verknüpfen von Kanten mit einem Dual-Threshold-Algorithmus.
Verwenden Sie den Nachbarschaftsgradienten, um die unsicheren Teile zu beurteilen.
Kantenerkennungsoperator zweiter Ordnung
Normalerweise wird der Nulldurchgangspunkt des Differentials zweiter Ordnung zur Kantenvorpositionierung verwendet.
Laplace
Merkmale
Es handelt sich um die zweite Ableitung und ist sehr geräuschempfindlich.
Die Größe des Laplace-Operators erzeugt Doppelkanten (minimal negativ und maximal positiv);
Die Richtung der Kanten kann nicht erkannt werden (keine Richtungsvorlage);
Wirkung
Nutzen Sie seine Nulldurchgangseigenschaften zur Kantenvorpositionierung;
Bestimmt, ob sich ein Pixel auf der dunklen oder hellen Seite einer Kante befindet.
Vorlage
LOG-Operator
Das Bild wird zuerst geglättet und dann werden die Kanten mithilfe des Laplace-Operators erkannt, um das Problem zu überwinden, dass der Differentialoperator zweiter Ordnung rauschempfindlich ist.
Kantenfortsetzung und -abschluss
Der Zweck der Kantenfortsetzung
Der Zweck der Kantenverbindung besteht darin, diskontinuierliche Kanten zu einer geschlossenen Grenze zu verbinden.
Das Prinzip der teilweisen Fortsetzungsverarbeitung
Analysieren Sie die Eigenschaften jedes Punktes (x, y) in den Kantenerkennungsergebnissen; verbinden Sie alle ähnlichen Punkte in einer kleinen Nachbarschaft (3x3 oder 5x5), um die Grenze einer Region mit gemeinsamen Eigenschaften zu bilden.
Hough-Transformation
Problemstellung
Prinzip
Unter Verwendung der dualen Beziehung zwischen einem Raum und einem anderen Raum wird das Problem im ursprünglichen Raum zur Lösung in seinen dualen Raum umgewandelt, und das Problem wird im dualen Raum relativ einfach.
Gerade Linien erkennen
Schritt
Vorbereitungsphase
Operationsphase
Gipfelsuchphase
Bestehende Probleme und Verbesserungen
Frage
Wenn die gerade Linie nahezu vertikal ist, liegt die Steigung q nahe bei Unendlich, der Suchbereich ist sehr groß und der Rechenaufwand ist groß.
Verbessern
Der XY-Raum des Bildes wird in einen Polarkoordinatenraum umgewandelt.
Merkmale
Es verfügt über eine starke Anti-Interferenz-Fähigkeit und die kumulative Zählung im Parameterraum ist ein integraler Prozess.
Es weist eine gute Robustheit auf und weist einen sehr deutlichen Peak an dem tatsächlich zu findenden Parameterpunkt auf.
Automatische Schließung: Die gesamte Kurve kann aus den Parametern der Randkurve ermittelt werden.
Daher kann die Hough-Transformation verwendet werden, um Interferenzen zu beseitigen und die Kurvenergänzung und -verbindung abzuschließen.
Anwendungsentwicklung
Zur Kreiserkennung
Zur Erkennung von Ellipsen
Regionssegmentierung
regionales Wachstum
Einführung des Problems
Einige Segmentierungsmethoden berücksichtigen bestimmte Bedingungen nicht.
Der Grundgedanke des regionalen Wachstums
Das Regionenwachstum ist eine Bottom-up-Segmentierungsmethode.
Bestimmen Sie zunächst die Anzahl der Regionen und deren Eigenschaften. Suchen Sie dann einen repräsentativen Startwert für jede Region zusammengeführt werden und schließlich Regionen mit unterschiedlichen Eigenschaften bilden. Diese Segmentierungsmethode wird auch als Regionserweiterung bezeichnet.
Algorithmusschritte und -prozesse
Suchen Sie zunächst ein Startpixel für den zu segmentierenden Bereich als Ausgangspunkt für das Wachstum.
Bestimmen Sie ein Ähnlichkeitskriterium (um festzustellen, ob die Bedingungen für eine Fusion erfüllt sind);
Gemäß dem Ähnlichkeitskriterium werden Pixel in der Nachbarschaft des Startpixels, die die gleichen oder ähnliche Eigenschaften wie der Startpunkt haben, im Startbereich zusammengeführt;
Behandeln Sie das neue Pixel als neues Startpixel und setzen Sie den obigen Vorgang fort, bis keine Pixel mehr, die die Bedingungen erfüllen, einbezogen werden können, wodurch das Wachstum einer Region abgeschlossen wird.
Befolgen Sie diese Methode, um das Wachstum anderer Bereiche abzuschließen, bis das gesamte Bild vollständig segmentiert ist.
Das Kernproblem
Auswahl des Saatpunkts
das hellste Pixel;
Maximalwert des Histogramms;
Pixel in der Clustermitte;
Bestimmung des Ähnlichkeitskriteriums (Wachstumskriterium)
Regionaler Graustufenunterschied;
Merkmale der Graustufenverteilung innerhalb der Region;
Farbe, Textur, Größe und Form usw.;
Bestimmung der Wachstumsstoppbedingungen
Regionswachstumskriterium: Der absolute Unterschied im Grauwert zwischen einem beliebigen Pixel und dem Startwert beträgt weniger als 65.
geteilte Zusammenführung
Problemstellung
Das regionale Wachstum wird stark von Saatgut, Ähnlichkeitskriterien usw. beeinflusst.
Die Idee des Teilens und Verschmelzens
Split-Merge ist eine Top-Down-Segmentierungsmethode.
Ausgehend vom gesamten Bild wird es kontinuierlich Schritt für Schritt aufgeteilt und gleichzeitig benachbarte Bereiche mit denselben Eigenschaften zusammengeführt, bis es nicht mehr geteilt werden kann, und schließlich wird jeder Teilbereich erhalten.
Split-Merge-Ansatz
spaltender Ansatz
Vervierfachen Sie Schritt für Schritt, bis der zu teilende Bereich in einzelne Pixel unterteilt ist.
Die Praxis des Verschmelzens
Benachbarte Gebiete mit gleichen Merkmalen zu einem Gebiet zusammenfassen.
Spezifische Operationen
einen Split durchführen;
Prüfen Sie, ob alle angrenzenden Bereiche zusammengeführt werden können. Wenn ja, führen Sie sie einzeln zusammen.
Wiederholen Sie die ersten beiden Schritte, bis das Teilen und Zusammenführen nicht mehr möglich ist.
Hinweis: Beim Zusammenführen werden im Allgemeinen zuerst die vier Bereiche unter demselben übergeordneten Knoten berücksichtigt und dann auf Bereiche auf derselben Ebene unter anderen übergeordneten Knoten erweitert.
Bildbeschreibung
Grundbegriffe der Bildbeschreibung
Die Hauptmerkmale, die das Bild charakterisieren
Das Bild wird segmentiert, um mehrere Regionen und Grenzen zu erhalten. Damit der Computer das Ziel effektiv identifizieren kann, müssen die Hauptattribute des Ziels und die Beziehung zwischen dem Ziel und dem Ziel und dem Hintergrund in prägnanteren und klareren numerischen Werten ausgedrückt werden , Symbole usw.
Diese aus dem Originalbild oder segmentierten Bild generierten Werte, Symbole usw. werden als Bildmerkmale bezeichnet. Bildmerkmale enthalten wichtige Informationen über das Ziel und spiegeln die Hauptmerkmale des Ziels wider.
Interne Funktionen: Graustufenfunktionen, Farbfunktionen, Texturfunktionen, ...
Äußere Merkmale: Fläche, Umfang, Kreisform usw.
Definition der Bildbeschreibung
Die Verwendung von Bildmerkmalen zur Darstellung eines Bildes wird als Bildbeschreibung bezeichnet, d. h. die Verwendung von Zahlen oder Symbolen zur Darstellung der relevanten Merkmale jedes Ziels im Bild oder in der Szene oder sogar der Beziehung zwischen den Zielen. Das Endergebnis ist ein abstrakter Ausdruck Zielmerkmale und die Beziehung zwischen ihnen.
Zweck der Bildbeschreibung
Erhalten Sie nützliche Informationen über das Ziel, beschreiben und messen Sie das Ziel genau und legen Sie den Grundstein für die Analyse und das Verständnis des Ziels.
Grundlegende Methoden der Bildbeschreibung
Die einfache Beschreibungsmethode bezieht sich auf eine Beschreibungsmethode, die auf den geometrischen Formmerkmalen des Bildes basiert. Zu den häufig verwendeten Methoden gehören Umfang, Fläche, Position, Richtung, Rechtwinkligkeit usw.
Grenzbeschreibungsmethode: Nachdem das Bild segmentiert oder der Kantenerkennungsalgorithmus verwendet wurde, um den Grenzpunktsatz des Zielbereichs zu erhalten, müssen diese Grenzpunkte so organisiert und beschrieben werden, dass sie eine Grenzlinie bilden. Diese Methode umfasst hauptsächlich die Kettencodemethode und die Fourier-Beschreibungsmethode warten.
Die regionale Beschreibungsmethode ist eine Methode zur Beschreibung eines Bildes basierend auf Graustufen, Farbe, Textur und anderen Merkmalen innerhalb des Bildes, beispielsweise die Methode der invarianten Momentbeschreibung.
einfache Beschreibung
Beschreibung des Umfangs
Umfangsdefinition: die Grenzlänge einer Region.
Die Rolle des Umfangs: Ein Objekt mit einer einfachen Form kann einen relativ kurzen Umfang verwenden, um den von ihm eingenommenen Bereich zu umgeben, sodass der Umfang zur Unterscheidung von Objekten mit einfacher oder komplexer Form verwendet werden kann.
Häufig verwendete Methoden zur Beschreibung des Umfangs
Die Länge der Grenzlinie (Lücke) zwischen der Fläche und dem Hintergrund
Pixel werden als kleine Quadrate pro Flächeneinheit betrachtet, und sowohl die Fläche als auch der Hintergrund bestehen aus kleinen Quadraten. Der Umfang ist die Länge der Lücke (Verbindungslinie) zwischen der Fläche und dem Hintergrund
Das heißt: Umfang p = Länge der Schnittlinie
Anzahl der Grenzpunkte
Ausgedrückt durch die Anzahl der Grenzpixel, also die Anzahl der Grenzpunkte
Das heißt: Umfang p = Anzahl der Randpunkte
Gebietsbeschreibung
Definition der Bereichsbeschreibung: die Anzahl der Pixel im Bereich.
Die Rolle der Fläche: Es handelt sich um das grundlegendste Merkmal der Fläche, das die Größe der Fläche beschreibt.
Angenommen, die Größe des Bildes f(x,y) beträgt M×N. Bei einem Binärbild stellt 1 das Ziel und 0 den Hintergrund dar. Um den Zielbereich zu ermitteln, muss die Anzahl der Pixel mit f(x,y) gezählt werden )=1, dann ist die Fläche:
Beschreibung des Zielstandorts
Da das Ziel einen bestimmten Bereich hat, ist es notwendig, die Position des Ziels im Bild zu definieren. Im Allgemeinen wird der Mittelpunkt des Bereichs als Zielposition definiert.
Der Flächenmittelpunkt bezieht sich auf den Schwerpunkt der Grafik. Wenn die Bildqualität gleichmäßig verteilt ist, ist der Schwerpunkt der Schwerpunkt.
Wenn für ein Binärbild f(x,y) der Größe M×N 1 das Ziel und 0 den Hintergrund darstellt, sind die Schwerpunktkoordinaten des Ziels:
Beschreibung der Zielrichtung
Nachdem Sie die Position des Ziels im Bild bestimmt haben, müssen Sie auch die Richtung des Ziels bestimmen.
Die Zielrichtung kann bestimmt werden, indem die kleinste Summe der Quadrate der Abstände aller Punkte auf dem Ziel zu einer geraden Linie ermittelt wird, die die Zielrichtung darstellt.
Beschreibung der angestrebten Rechtwinkligkeit
Die Rechteckigkeit spiegelt den Grad wider, in dem das Ziel sein umschriebenes Rechteck ausfüllt, und kann durch das Verhältnis der Fläche des Ziels zur Fläche seines kleinsten umschriebenen Rechtecks beschrieben werden.
Ao ist die Fläche des Ziels und AMER ist die Fläche des kleinsten umschließenden Rechtecks. Der R-Wert liegt zwischen 0 und 1.
Wenn das Ziel ein Rechteck ist, nimmt R einen Maximalwert von 1 an; wenn das Ziel ein Kreis ist, beträgt der Wert von R; für schlanke und gebogene Ziele wird der R-Wert kleiner und liegt nahe bei 0.
Methode zur Beschreibung des Kettencodes
Chaincode-Definition
Kettencode ist eine Darstellungsmethode der Grenzkodierung, die die Richtung der Grenze als Grundlage für die Kodierung verwendet. Der Einfachheit halber wird im Allgemeinen eine Menge von Randpunkten beschrieben.
Chaincode-Methode
Es gibt zwei Codierungsmethoden: 4-Ketten-Code und 8-Ketten-Code. Spezifische Methode: Beginnen Sie am Startpunkt und codieren Sie entlang der Grenze, bis Sie zum Startpunkt zurückkehren. Beenden Sie die Codierung.
Geben Sie jedem Grenzsegment einen Richtungscode
Wählen Sie den Startpunkt aus, beginnen Sie am Startpunkt und kodieren Sie entlang der Grenze, bis Sie zum Startpunkt zurückkehren und die Kodierung beenden.
Ausgangspunkt: roter Punkt
Richtung: im Uhrzeigersinn
4-Ketten-Code: 000033333322222211110011
Beispiel 2
Lassen Sie die Koordinaten des Startpunkts s (5,5) sein und verwenden Sie 4-Richtungs-Kettencodes und 8-Richtungs-Kettencodes gegen den Uhrzeigersinn, um die Bereichsgrenzen darzustellen.
4-Wege-Kettencode: (5,5)111232323000
8-Richtungs-Kettencode: (5,5)2224556000
Es gibt ein Problem
Unterschiedliche Ausgangspunkte führen zu unterschiedlicher Codierung
Durch die Drehung entstehen Kodierungsunterschiede
Möglichkeiten zur Verbesserung
Die Normalisierung löst das Startpunktproblem: Wenn der Kettencode vom Anfang bis zum Ende verbunden ist, ist ersichtlich, dass der Kettencode tatsächlich eine zyklische Richtungscodierungssequenz ist. Daher kann der Startpunkt so gewählt werden, dass der ganzzahlige Wert der resultierenden Codierungssequenz minimiert wird, um eine Normalisierung des Kettencodes zu erreichen.
Die Differenz erster Ordnung löst das Rotationsproblem: Wenn die Differenz erster Ordnung des Kettencodes als Ersatz für den ursprünglichen Code verwendet wird, weist sie eine Rotationsinvarianz auf. Das heißt, für Bereiche derselben Form, die in unterschiedlichen Winkeln gedreht werden, sind ihre Kettencodes unterschiedlich, aber die Differenzcodes erster Ordnung jedes Kettencodes sind gleich. Diese Eigenschaft ist besonders effektiv für die Bilderkennung.
Die Differenz erster Ordnung und die Normalisierung des Kettencodes können Startpunkt- und Rotationsinvarianz haben.
Fourier-Beschreibungsmethode
Die Grundidee
Nachdem die aus Punktsätzen bestehende Grenze bestätigt wurde, kann die Form des Ziels anhand der Grenze identifiziert werden.
Verfahren
Die Beziehung zwischen der Auswahl von M und dem Deskriptor
Nutzwert
Mit weniger Fourier-Deskriptoren kann der Gesamtüberblick über das Grenzwesen erhalten werden.
Diese Deskriptoren mit Grenzinformationen können verwendet werden, um deutlich unterschiedliche Grenzen zu unterscheiden.
Merkmale
Zweidimensionales Problem wird eindimensional
Verbessert und angepasst, um gegenüber geometrischen Transformationen invariant zu sein
Aus der Definition ist ersichtlich, dass sich die Auswahl des Startpunkts, der Verschiebung, der Drehung und der Skalierung auf die ursprüngliche Grenzsequenz und damit auf das Ergebnis nach der Fourier-Transformation auswirkt.
Der Fourier-Deskriptor kann verbessert und angepasst werden, um ihn gegenüber geometrischen Transformationen invariant zu machen. Die spezifischen Methoden sind wie folgt: 1) Die Änderung und Drehung des Startpunkts beeinflusst nur die Phase von F(u), nicht die Amplitude, und kann ignoriert werden; 2) Die Übersetzung beeinflusst die DC-Komponente von F(u), die durch Entfernen von DC eliminiert werden kann. 3) Skalenänderungen führen zu einer Gesamtvergrößerung oder -verringerung von F(u), die durch Normalisierung durch Division durch den maximalen Koeffizienten beseitigt werden kann. Nach der obigen Verarbeitung weist das endgültige Fourier-Blatt die Invarianz der geometrischen Transformation auf.
Momentbeschreibungsmethode
Die Grundidee
In einigen Fällen kann, wenn die Grauverteilung des Zielbereichs im Bild bekannt ist, eine Momentenbeschreibung zur Charakterisierung des Ziels verwendet werden.
Merkmale der Momentbeschreibung
Es ist nicht erforderlich, die Grenzen zu kennen, sondern nur die Graustufenbedingungen der Pixel innerhalb des segmentierten Bereichs.
Moment
Mittelpunktabstand
invariante Momente