Galería de mapas mentales Redes neuronales y redes neuronales convolucionales de aprendizaje profundo
Se resume el contenido principal de las redes neuronales convolucionales, como conceptos básicos, operaciones de convolución, estructuras básicas, métodos de aprendizaje de parámetros y algunas estructuras de ejemplo de redes neuronales convolucionales.
Editado a las 2023-02-26 23:13:29,Este es un mapa mental sobre una breve historia del tiempo. "Una breve historia del tiempo" es una obra de divulgación científica con una influencia de gran alcance. No sólo presenta los conceptos básicos de cosmología y relatividad, sino que también analiza los agujeros negros y la expansión. del universo. temas científicos de vanguardia como la inflación y la teoría de cuerdas.
¿Cuáles son los métodos de fijación de precios para los subcontratos de proyectos bajo el modelo de contratación general EPC? EPC (Ingeniería, Adquisiciones, Construcción) significa que el contratista general es responsable de todo el proceso de diseño, adquisición, construcción e instalación del proyecto, y es responsable de los servicios de operación de prueba.
Los puntos de conocimiento que los ingenieros de Java deben dominar en cada etapa se presentan en detalle y el conocimiento es completo, espero que pueda ser útil para todos.
Este es un mapa mental sobre una breve historia del tiempo. "Una breve historia del tiempo" es una obra de divulgación científica con una influencia de gran alcance. No sólo presenta los conceptos básicos de cosmología y relatividad, sino que también analiza los agujeros negros y la expansión. del universo. temas científicos de vanguardia como la inflación y la teoría de cuerdas.
¿Cuáles son los métodos de fijación de precios para los subcontratos de proyectos bajo el modelo de contratación general EPC? EPC (Ingeniería, Adquisiciones, Construcción) significa que el contratista general es responsable de todo el proceso de diseño, adquisición, construcción e instalación del proyecto, y es responsable de los servicios de operación de prueba.
Los puntos de conocimiento que los ingenieros de Java deben dominar en cada etapa se presentan en detalle y el conocimiento es completo, espero que pueda ser útil para todos.
Redes neuronales y aprendizaje profundo red neuronal convolucional
Introducción a CNN
Vista previa típica de la estructura de CNN
propiedades básicas
conexión escasa
En comparación con la red FC completamente conectada, CNN es una conexión local, es decir, la salida de una neurona en la capa anterior solo está conectada a la entrada de varias neuronas adyacentes en la siguiente capa, y la entrada de una neurona en la siguiente La capa solo recibe la entrada de la capa anterior y la salida de varias neuronas vecinas.
Compartir parámetros
Campo receptivo (campo de visión)
La entrada de una neurona en la capa actual es la salida de varias neuronas cercanas a la capa anterior, y lo que se siente es la salida de las neuronas vecinas en la capa anterior. Esta área de entrada se denomina campo receptivo de la neurona actual.
Núcleo de convolución
Las señales dentro del campo receptivo se ponderan para formar la activación de la neurona actual. Las neuronas adyacentes tienen campos receptivos diferentes pero iguales (independientemente de los límites).
La activación de cada neurona se genera mediante la suma ponderada de las señales en sus respectivos campos sensoriales utilizando el mismo conjunto de coeficientes de peso, es decir, cada neurona utiliza el mismo vector de coeficientes de peso. Este conjunto de coeficientes de peso compartidos se denomina núcleo de convolución. .
Invariancia de traducción aproximada
Una traducción de la señal de entrada tiene la misma traducción de la señal de salida.
Las propiedades de la operación de convolución en sí, las propiedades básicas de los sistemas lineales invariantes en el tiempo.
Al diseñar adecuadamente la unidad de agrupación y seleccionar la función de activación, CNN puede mantener aproximadamente la invariancia de traducción.
Ejemplo
Identificar un perro en una imagen. Sigue siendo un perro después de la traducción.
Operación de convolución y su significado físico.
operación de convolución
Señal de entrada x(t)
Respuesta al impulso de la unidad del sistema h (t) (núcleo de convolución CNN)
Señal de salida y(t)
Propiedades de convolución
Intercambiabilidad
invariancia de traducción
longitud de convolución completa
N K-1
Longitud de convolución efectiva
NK 1
significado fisico
filtrar
filtro de paso bajo
Extraiga los componentes de baja frecuencia que cambian lentamente de la señal.
h1[n]={1/2,1/2}
filtro de paso alto
Extraiga componentes de señales de alta frecuencia que cambian rápidamente
h2[n]={1/2,-1/2}
filtro de paso de banda
Extraer ingredientes moderadamente variados.
Función de filtro de convolución
Para una señal compleja que contiene varios componentes de frecuencia, diferentes filtros implementados por diferentes núcleos de convolución pueden obtener componentes de diferentes escalas en la señal.
filtrado adaptativo
El error entre la salida de la capa de salida de la red y la respuesta esperada se utiliza para entrenar la red de la capa de salida.
El algoritmo BP propaga hacia atrás el error de la capa de salida a cada capa anterior y entrena los núcleos de convolución de cada capa por turno utilizando el error de propagación hacia atrás.
La estructura de CNN básica.
Convolución unidimensional
Valor de activación neuronal
salida neuronal
Función de activación lineal rectificada ReLU
z=máx{0,a}
canal de convolución
Operación de convolución entre la entrada y el núcleo de convolución Operación de la función de activación
Comparar con una red completamente conectada
Pocos parámetros compartidos
Divide y conquistarás características de entrada de diferentes naturalezas
convolución 2D
fórmula
Comprensión de imágenes
La operación de convolución bidimensional es equivalente a deslizar hij en la matriz de datos Xij. Cuando es necesario calcular amn, h00 se desliza para alinearse con Xmn, y luego se calcula y suma el término producto Xm en j hij.
El tamaño de salida de convolución efectivo es (D1-K1 1)×(D2-K2 1)
nivel de detección
Calcular la función de activación, salida de neuronas.
convolución multicanal
Canal de convolución/plano de convolución
La matriz generada por cada núcleo de convolución h mediante la operación de convolución
Ejemplo
ingresar
Imagen de 32×32, 3 canales que representan tres colores primarios RGB
Núcleo de convolución
6 núcleos de convolución de 5×5, dos para cada canal de entrada
producción
Genera 6 canales de convolución de 28×28
Agrupación
agrupación máxima
Agrupación que toma el valor máximo de la ventana, es decir, selecciona el valor máximo dentro de una ventana pequeña como resultado de la agrupación.
agrupación promedio
Promedio dentro de la ventana como resultado de la agrupación
agrupación de diezmado
Valor de punto fijo dentro de la ventana como resultado de la agrupación
Propiedades de ventana
tamaño
M1×M2
zancada conjunta
S
Convolución con relleno de ceros de igual longitud
k es un número impar
Agregue (K-1)/2 ceros a ambos extremos de la entrada
k es un número par
Agregue K/2 ceros a un lado y (K/2)-1 ceros al otro lado.
Constituir CNN
Composición de capas convolucionales.
Etapa de operación de convolución
Nivel de detección (función ReLU)
Agrupación (opcional)
Estructura típica de la red CNN
Algunas estructuras extendidas de convolución.
convolución tensorial
volumen de datos 3D
núcleo de convolución tensorial
plano de convolución
Convolución dimensional de canal
Extraer diferentes características de la dimensión del canal.
Núcleo de convolución 1 × 1
convolución de zancada en S
Aprendizaje de parámetros CNN
La idea del algoritmo BP de CNN
propagación hacia adelante
Cálculo de convolución de la capa convolucional
Salida de activación de cálculo totalmente conectada de la capa FC
La capa de agrupación realiza la agrupación
Propagación hacia atrás
La capa FC se calcula según el algoritmo de retropropagación estándar de BP.
Algoritmo de retropropagación de capa convolucional y capa de agrupación
Fórmula de retropropagación para capas convolucionales
Fórmula de retropropagación para la capa de agrupación
expansión 2D
Introducción al ejemplo de CNN
Red LeNet-5
Red AlexNet y red VGGNet
función de activación
La función de activación ReLU entrena 6 veces más rápido que la función de activación tanh
Estructura AlexNet
Estructura VGGNet
Utilice capas más profundas, núcleos de convolución más pequeños y múltiples capas de convolución correspondientes a una capa de agrupación.
Ideas para mejorar los efectos del entrenamiento.
Obtenga mejores resultados de entrenamiento aumentando la profundidad de CNN
Un aumento directo en el número de capas traerá efectos negativos.
Fácil de sobreajustar
el gradiente desaparece
explosión de gradiente
Red GoogLeNet
Módulo de construcción macro Inception
4 ramas paralelas
Genere resultados ramificando y fusionando módulos
Cada rama contiene una convolución de 1 × 1.
El propósito es dividir y conquistar para reducir los parámetros y la complejidad computacional.
estructura
Redes residuales y redes densas.
red residual
problema de degradación de la red
La precisión en el conjunto de entrenamiento se satura o incluso disminuye.
Características de la red residual.
Fácil de optimizar y puede mejorar la precisión añadiendo una profundidad considerable.
El bloque residual dentro de la red residual utiliza conexiones de salto, lo que alivia el problema del gradiente de fuga causado por el aumento de profundidad en la red neuronal profunda.
bloque de construcción residual
estructura de rejilla residual
red densa
Características de la red densa
Mantener la estructura de la red feedforward, conectando la salida de la capa de entrada o de la capa actual a la entrada de cada capa posterior.
Para redes de capa L, puede haber conexiones L(L-1)/2
estructura de red densa