Redes neuronales artificiales (RNA) en el aprendizaje automático – Data Science Central
On septiembre 24, 2021 by adminRedes neuronales artificiales – Introducción
Las redes neuronales artificiales (RNA) o redes neurales son algoritmos computacionales.
Se pretende simular el comportamiento de los sistemas biológicos compuestos por «neuronas». Las RNA son modelos computacionales inspirados en el sistema nervioso central de los animales. Son capaces de realizar un aprendizaje automático, así como de reconocer patrones. Se presentan como sistemas de «neuronas» interconectadas que pueden calcular valores a partir de entradas.
Una red neuronal es un grafo orientado. Consta de nodos que en la analogía biológica representan neuronas, conectadas por arcos. Corresponde a dendritas y sinapsis. Cada arco asociado con un peso mientras que en cada nodo. Aplica los valores recibidos como entrada por el nodo y define la función de activación a lo largo de los arcos entrantes, ajustados por los pesos de los arcos.
Una red neuronal es un algoritmo de aprendizaje automático basado en el modelo de una neurona humana. El cerebro humano está formado por millones de neuronas. Envía y procesa señales en forma de señales eléctricas y químicas. Estas neuronas están conectadas con una estructura especial conocida como sinapsis. Las sinapsis permiten a las neuronas transmitir señales. A partir de un gran número de neuronas simuladas se forman redes neuronales.
Una red neuronal artificial es una técnica de procesamiento de información. Funciona como el cerebro humano procesa la información. La RNA incluye un gran número de unidades de procesamiento conectadas que trabajan juntas para procesar la información. También generan resultados significativos a partir de ella.
Podemos aplicar la red neuronal no sólo para la clasificación. También puede aplicarse para la regresión de atributos continuos.
Las redes neuronales encuentran una gran aplicación en la minería de datos utilizada en sectores. Por ejemplo la economía, la ciencia forense, etc y para el reconocimiento de patrones. También se puede utilizar para la clasificación de datos en una gran cantidad de datos después de un cuidadoso entrenamiento.
Una red neuronal puede contener las siguientes 3 capas:
- Capa de entrada – La actividad de las unidades de entrada representa la información en bruto que puede alimentar la red.
- Capa oculta – Para determinar la actividad de cada unidad oculta. Las actividades de las unidades de entrada y los pesos en las conexiones entre la entrada y las unidades ocultas. Puede haber una o más capas ocultas.
- Capa de salida – El comportamiento de las unidades de salida depende de la actividad de las unidades ocultas y de los pesos entre las unidades ocultas y de salida.
Capas de la red neuronal artificial
La red neuronal artificial se organiza normalmente en capas. Las capas están formadas por muchos «nodos» interconectados que contienen una «función de activación». Una red neuronal puede contener las siguientes 3 capas:
a. Capa de entrada
El propósito de la capa de entrada es recibir como entrada los valores de los atributos explicativos de cada observación. Normalmente, el número de nodos de entrada en una capa de entrada es igual al número de variables explicativas. La «capa de entrada» presenta los patrones a la red, que los comunica a una o más «capas ocultas».
Los nodos de la capa de entrada son pasivos, es decir, no modifican los datos. Reciben un único valor en su entrada y duplican el valor a sus numerosas salidas. Desde la capa de entrada, se duplica cada valor y se envía a todos los nodos ocultos.
b. Capa oculta
Las capas ocultas aplican transformaciones dadas a los valores de entrada dentro de la red. En ella, los arcos de entrada que van desde otros nodos ocultos o desde los nodos de entrada conectados a cada nodo. Se conecta con los arcos de salida a los nodos de salida o a otros nodos ocultos. En la capa oculta, el procesamiento real se realiza mediante un sistema de «conexiones» ponderadas. Puede haber una o varias capas ocultas. Los valores que entran en un nodo oculto se multiplican por los pesos, un conjunto de números predeterminados almacenados en el programa. Las entradas ponderadas se suman entonces para producir un único número.
c. Capa de salida
Las capas ocultas se enlazan entonces con una «capa de salida». La capa de salida recibe las conexiones de las capas ocultas o de la capa de entrada. Devuelve un valor de salida que corresponde a la predicción de la variable de respuesta. En los problemas de clasificación, suele haber un solo nodo de salida. Los nodos activos de la capa de salida combinan y modifican los datos para producir los valores de salida.
La capacidad de la red neuronal para proporcionar una manipulación de datos útil radica en la selección adecuada de los pesos. Esto es diferente del procesamiento de información convencional.
Estructura de una red neuronal
La estructura de una red neuronal también se conoce como su «arquitectura» o «topología». Consiste en el número de capas, unidades elementales. También consiste en el mecanismo de ajuste del peso interconectado. La elección de la estructura determina los resultados que se van a obtener. Es la parte más crítica de la implementación de una red neuronal.
La estructura más sencilla es aquella en la que las unidades se distribuyen en dos capas: Una capa de entrada y una capa de salida. Cada unidad de la capa de entrada tiene una única entrada y una única salida que es igual a la entrada. La unidad de salida tiene todas las unidades de la capa de entrada conectadas a su entrada, con una función de combinación y una función de transferencia. Puede haber más de una unidad de salida. En este caso, el modelo resultante es una regresión lineal o logística, dependiendo de si la función de transferencia es lineal o logística. Los pesos de la red son los coeficientes de regresión.
Al añadir 1 o más capas ocultas entre las capas de entrada y salida y las unidades en esta capa el poder predictivo de la red neuronal aumenta. Pero el número de capas ocultas debe ser lo más pequeño posible. Esto garantiza que la red neuronal no almacene toda la información del conjunto de aprendizaje, sino que pueda generalizarla para evitar el sobreajuste.
El sobreajuste puede ocurrir. Ocurre cuando los pesos hacen que el sistema aprenda detalles del conjunto de aprendizaje en lugar de descubrir estructuras. Esto ocurre cuando el tamaño del conjunto de aprendizaje es demasiado pequeño en relación con la complejidad del modelo.
Hay una capa oculta o no, la capa de salida de la red puede tener a veces muchas unidades, cuando hay muchas clases que predecir.
Ventajas y desventajas de las redes neuronales
Veamos algunas ventajas y desventajas de las redes neuronales:
- Las redes neuronales se comportan bien con datos lineales y no lineales, pero una crítica común a las redes neuronales, particularmente en robótica, es que requieren una gran diversidad de entrenamiento para su funcionamiento en el mundo real. Esto es así porque cualquier máquina de aprendizaje necesita suficientes ejemplos representativos para captar la estructura subyacente que le permite generalizar a nuevos casos.
- Las redes neuronales funcionan incluso si una o unas pocas unidades no responden a la red, pero para implementar redes neuronales de software grandes y eficaces es necesario comprometer muchos recursos de procesamiento y almacenamiento. Mientras que el cerebro tiene un hardware adaptado a la tarea de procesar señales a través de un gráfico de neuronas, simular incluso una forma más simplificada en la tecnología Von Neumann puede obligar a un diseñador de redes neuronales a rellenar millones de filas de bases de datos para sus conexiones, lo que puede consumir grandes cantidades de memoria de ordenador y espacio en el disco duro.
- Las redes neuronales aprenden a partir de los datos analizados y no requieren reprogramación, pero se denominan modelos de «caja negra», y proporcionan muy poca información sobre lo que hacen realmente estos modelos. El usuario sólo tiene que alimentar la entrada y ver cómo se entrena y esperar la salida.
Conclusión
Las redes neuronales se consideran modelos matemáticos simples para mejorar las tecnologías de análisis de datos existentes. Aunque no es comparable con la potencia del cerebro humano, sigue siendo el bloque de construcción básico de la inteligencia artificial.
Deja una respuesta