Galería de mapas mentales Los 10 mejores algoritmos en inteligencia artificial
Para muchas personas, la inteligencia artificial sigue siendo una tecnología relativamente "avanzada", pero no importa cuán avanzada sea la tecnología, parte de principios básicos. Hay 10 algoritmos principales que circulan en el campo de la inteligencia artificial. Sus principios son simples y se han descubierto y aplicado muy temprano. Es posible que incluso los haya aprendido en la escuela secundaria y son muy comunes en la vida. Este artículo le explica estos 10 algoritmos en términos sencillos.
Editado a las 2023-05-29 19:40:10,Este es un mapa mental sobre una breve historia del tiempo. "Una breve historia del tiempo" es una obra de divulgación científica con una influencia de gran alcance. No sólo presenta los conceptos básicos de cosmología y relatividad, sino que también analiza los agujeros negros y la expansión. del universo. temas científicos de vanguardia como la inflación y la teoría de cuerdas.
¿Cuáles son los métodos de fijación de precios para los subcontratos de proyectos bajo el modelo de contratación general EPC? EPC (Ingeniería, Adquisiciones, Construcción) significa que el contratista general es responsable de todo el proceso de diseño, adquisición, construcción e instalación del proyecto, y es responsable de los servicios de operación de prueba.
Los puntos de conocimiento que los ingenieros de Java deben dominar en cada etapa se presentan en detalle y el conocimiento es completo, espero que pueda ser útil para todos.
Este es un mapa mental sobre una breve historia del tiempo. "Una breve historia del tiempo" es una obra de divulgación científica con una influencia de gran alcance. No sólo presenta los conceptos básicos de cosmología y relatividad, sino que también analiza los agujeros negros y la expansión. del universo. temas científicos de vanguardia como la inflación y la teoría de cuerdas.
¿Cuáles son los métodos de fijación de precios para los subcontratos de proyectos bajo el modelo de contratación general EPC? EPC (Ingeniería, Adquisiciones, Construcción) significa que el contratista general es responsable de todo el proceso de diseño, adquisición, construcción e instalación del proyecto, y es responsable de los servicios de operación de prueba.
Los puntos de conocimiento que los ingenieros de Java deben dominar en cada etapa se presentan en detalle y el conocimiento es completo, espero que pueda ser útil para todos.
Los 10 mejores algoritmos en inteligencia artificial
1. Regresión lineal
definición
(Regresión lineal) es probablemente el algoritmo de aprendizaje automático más popular. La regresión lineal consiste en encontrar una línea recta y hacer que esta línea recta se ajuste lo más posible a los puntos de datos en el diagrama de dispersión. Intenta representar las variables independientes (valores de x) y los resultados numéricos (valores de y) ajustando una ecuación en línea recta a estos datos. ¡Esta línea luego se puede usar para predecir valores futuros!
La técnica más utilizada para este algoritmo es el método de mínimos cuadrados. Este método calcula una línea de mejor ajuste que minimiza la distancia perpendicular desde cada punto de datos en la línea. La distancia total es la suma de los cuadrados de las distancias verticales (línea verde) de todos los puntos de datos. La idea es ajustar el modelo minimizando este error o distancia al cuadrado.
Por ejemplo, regresión lineal simple, que tiene una variable independiente (eje x) y una variable dependiente (eje y).
Aplicaciones comunes
Por ejemplo, prediga el crecimiento del precio de la vivienda el próximo año, las ventas de nuevos productos del próximo trimestre, etc. No parece difícil, pero la dificultad del algoritmo de regresión lineal no es obtener el valor predicho, sino ser más preciso. Para ese número posiblemente muy pequeño, ¿cuántos ingenieros han dedicado su juventud y su cabello a ello?
2. Regresión logística
definición
La regresión logística es similar a la regresión lineal, pero el resultado de la regresión logística solo puede tener dos valores. Si la regresión lineal predice un valor abierto, la regresión logística es más como hacer una pregunta de sí o no.
El valor de Y en la función logística varía de 0 a 1 y es un valor de probabilidad. Las funciones logísticas suelen tener una curva en forma de S que divide el gráfico en dos regiones, lo que las hace adecuadas para tareas de clasificación.
Por ejemplo, el gráfico de regresión logística anterior muestra la relación entre la probabilidad de aprobar el examen y el tiempo de estudio, y puede usarse para predecir si podrá aprobar el examen.
Aplicaciones comunes
El comercio electrónico o las plataformas de comida para llevar suelen utilizar la regresión logística para predecir las preferencias de compra de los usuarios por categorías.
3. Árbol de decisión
definición
Lo anterior es una ilustración de un árbol de decisión, en el que cada círculo ramificado se denomina nodo.
En cada nodo, hacemos preguntas sobre los datos según las funciones disponibles. Las ramas izquierda y derecha representan posibles respuestas. El nodo final (es decir, el nodo hoja) corresponde a un valor predicho.
La importancia de cada característica se determina mediante un enfoque de arriba hacia abajo. Cuanto más alto es el nodo, más importantes son sus propiedades. Por ejemplo, el maestro en el ejemplo anterior cree que la asistencia es más importante que la tarea, por lo que el nodo de asistencia es más alto y, por supuesto, el nodo de puntuación es más alto.
Si tanto la regresión lineal como la logística finalizan la tarea en una ronda, entonces los árboles de decisión (árboles de decisión) son acciones de varios pasos. También se utilizan en tareas de regresión y clasificación, pero los escenarios suelen ser más complejos y específicos.
Aplicaciones comunes
Para dar un ejemplo sencillo, cuando un profesor se enfrenta a los alumnos de una clase, ¿quiénes son los buenos alumnos? Parece demasiado burdo juzgar simplemente que un estudiante con una puntuación de 90 en el examen se considera un buen estudiante y no puede basarse únicamente en las puntuaciones. Para los estudiantes cuyas puntuaciones sean inferiores a 90 puntos, podemos discutirlos por separado de aspectos como la tarea, la asistencia y las preguntas.
4. Bayes ingenuo
definición
Naive Bayes se basa en el teorema de Bayes, que es la relación entre dos condiciones. Mide la probabilidad de cada clase, la probabilidad condicional de cada clase dado el valor de x. Este algoritmo se utiliza en problemas de clasificación y produce un resultado binario sí/no. Eche un vistazo a la siguiente ecuación.
Aplicaciones comunes
El clasificador Naive Bayes es una técnica estadística popular con una aplicación clásica en el filtrado de spam.
Explicar el teorema de Bayes sin terminología es utilizar la probabilidad de que B ocurra bajo la condición A para obtener la probabilidad de que A ocurra bajo la condición B. Por ejemplo, si le gustas a un gatito, hay un% de probabilidad de que gire su barriga frente a ti. ¿Cuál es la probabilidad de que le gustes al gatito si gira su barriga frente a ti? Por supuesto, hacer esta pregunta equivale a rascarse la cabeza, por lo que también debemos introducir otros datos. Por ejemplo, si le gustas al gatito, hay un b% de posibilidades de que se pegue a ti y un c% de posibilidades de ronronear. Entonces, ¿cómo sabemos la probabilidad de que le gustemos a un gatito? A través del teorema de Bayes, podemos calcularla a partir de la probabilidad de girar la barriga, pegarse y ronronear.
5. Máquina de vectores de soporte
definición
Support Vector Machine (SVM) es un algoritmo supervisado para problemas de clasificación. Una máquina de vectores de soporte intenta dibujar dos líneas entre puntos de datos con el mayor margen entre ellos. Para hacer esto, trazamos elementos de datos como puntos en un espacio de n dimensiones, donde n es el número de características de entrada. Sobre esta base, la máquina de vectores de soporte encuentra un límite óptimo, llamado hiperplano, que separa mejor las posibles salidas por etiquetas de clase. La distancia entre el hiperplano y el punto de clase más cercano se llama margen. El hiperplano óptimo tiene el margen más grande que clasifica puntos de manera que se maximice la distancia entre el punto de datos más cercano y las dos clases.
Aplicaciones comunes
Por lo tanto, el problema que las máquinas de vectores de soporte quieren resolver es cómo separar un montón de datos. Sus principales escenarios de aplicación incluyen reconocimiento de caracteres, reconocimiento facial, clasificación de texto y otros reconocimientos.
6.K-Algoritmo del vecino más cercano (KNN)
definición
El algoritmo K-Vecinos más cercanos (KNN) es muy simple. KNN clasifica objetos buscando en todo el conjunto de entrenamiento las K instancias más similares, o K vecinos, y asignando una variable de salida común a todas estas K instancias.
La elección de K es crítica: valores más pequeños pueden generar mucho ruido y resultados inexactos, mientras que valores más grandes no son factibles. Se utiliza más comúnmente para clasificación, pero también es adecuado para problemas de regresión.
La distancia utilizada para evaluar la similitud entre instancias puede ser la distancia euclidiana, la distancia de Manhattan o la distancia de Minkowski. La distancia euclidiana es la distancia en línea recta ordinaria entre dos puntos. En realidad es la raíz cuadrada de la suma de los cuadrados de la diferencia de coordenadas de los puntos.
Aplicaciones comunes
La teoría KNN es simple y fácil de implementar y puede usarse para clasificación de texto, reconocimiento de patrones, análisis de conglomerados, etc.
7.K-media
definición
K-means agrupa el conjunto de datos clasificándolo. Por ejemplo, este algoritmo se puede utilizar para agrupar usuarios según el historial de compras. Encuentra K grupos en el conjunto de datos. K-means se usa para el aprendizaje no supervisado, por lo que solo necesitamos usar los datos de entrenamiento X y la cantidad de grupos que queremos identificar K.
El algoritmo asigna iterativamente cada punto de datos a uno de K grupos en función de sus características. Selecciona K puntos para cada K-cluster (llamados centroides). Según la similitud, se agregan nuevos puntos de datos al grupo con el centroide más cercano. Este proceso continúa hasta que el centro de masa deja de cambiar.
Aplicaciones comunes
En la vida, K-means juega un papel importante en la detección de fraudes y se usa ampliamente en los campos del automóvil, los seguros médicos y la detección de fraudes en seguros.
8. Bosque aleatorio
definición
Random Forest es un algoritmo de aprendizaje automático conjunto muy popular. La idea básica de este algoritmo es que las opiniones de muchas personas son más precisas que las opiniones de un individuo. En un bosque aleatorio, utilizamos un conjunto de árboles de decisión (ver Árboles de decisión).
(a) Durante el proceso de capacitación, cada árbol de decisión se construye en base a muestras de arranque del conjunto de capacitación.
(b) Durante la clasificación, las decisiones sobre las instancias de entrada se toman por mayoría de votos.
Aplicaciones comunes
Random Forest tiene una amplia gama de perspectivas de aplicación, desde marketing hasta seguros de atención médica. Puede usarse para modelar simulaciones de marketing, contar fuentes de clientes, retención y pérdidas, y también puede usarse para predecir riesgos de enfermedades y susceptibilidad del paciente.
9. Reducción de dimensionalidad
Los problemas del aprendizaje automático se han vuelto más complejos debido al gran volumen de datos que podemos capturar hoy. Esto significa que el entrenamiento es extremadamente lento y encontrar una buena solución es difícil. Este problema a menudo se denomina "maldición de la dimensionalidad".
La reducción de dimensionalidad intenta resolver este problema combinando características específicas en características de nivel superior sin perder la información más importante. El Análisis de Componentes Principales (PCA) es la técnica de reducción de dimensionalidad más popular.
El análisis de componentes principales reduce la dimensionalidad de un conjunto de datos comprimiéndolo en líneas de baja dimensión o hiperplanos/subespacios. Esto preserva la mayor cantidad posible de características destacadas de los datos originales.
Se puede lograr un ejemplo de reducción de dimensionalidad aproximando todos los puntos de datos a una línea recta.
10.Red neuronal artificial (RNA)
definición
Las redes neuronales artificiales (RNA) pueden manejar tareas de aprendizaje automático grandes y complejas. Una red neuronal es esencialmente un conjunto de capas interconectadas compuestas de bordes y nodos ponderados, llamados neuronas. Entre la capa de entrada y la capa de salida, podemos insertar múltiples capas ocultas. Las redes neuronales artificiales utilizan dos capas ocultas. Más allá de eso, es necesario abordar el aprendizaje profundo.
Las redes neuronales artificiales funcionan de manera similar a la estructura del cerebro. A un grupo de neuronas se le asigna un peso aleatorio para determinar cómo la neurona procesa los datos de entrada. La relación entre entrada y salida se aprende entrenando una red neuronal con datos de entrada. Durante la fase de formación, el sistema tiene acceso a las respuestas correctas.
Si la red no reconoce con precisión la entrada, el sistema ajusta los pesos. Después de un entrenamiento suficiente, reconocerá constantemente los patrones correctos.
Cada nodo circular representa una neurona artificial y las flechas representan conexiones desde la salida de una neurona artificial a la entrada de otra.
Aplicaciones comunes
El reconocimiento de imágenes es una aplicación bien conocida de las redes neuronales.