Funciones de activación a detalle (Redes neuronales)
En este video vemos a detalle varias de las funciones de activación que se usan actualmente en redes neuronales. Revisamos cómo funcionan, por qué se necesitan y comparamos algunas de sus características.
Ya tengo cursos!
Aprende a programar desde cero con Python:
https://www.domestika.org/es/courses/5228-introduccion-a-la-programacion-con-python/ringatech
Aprende IA desde cero con Python:
https://www.domestika.org/es/courses/5239-introduccion-a-la-ia-con-python/ringatech
Si quieres apoyarme y formar parte de este proyecto, puedes hacerlo de varias maneras:
- Patreon: http://bit.ly/patreon-ringatech
- Membresía Youtube: https://www.youtube.com/channel/UCm9QZ70KuIVShztZ7HmE4NQ/join
- Si el video te gustó, da clic en me gusta y déjame un comentario!
= = = CONTENIDO
0:00 ¿Para qué sirven?
4:18 Escalón / Step
4:55 Derivadas
6:48 Logística / Sigmoid
7:52 Desvanecimiento de gradiente
9:07 Tangente hiperbólica y Softsign
11:00 ReLU
12:45 Neuronas muertas
13:35 Leaky ReLU
14:00 PReLU y GELU
14:44 Softplus, Maxout, ELU
15:43 Swish / SiLU
16:29 Mish
17:15 Identidad y Softmax
19:47 Cuándo usar cada una
21:24 ¿Oscilatorias?
= = =
Descripción larga para el algoritmo:
Las funciones de activación son un componente indispensable para que las redes neuronales puedan generar el aprendizaje para poder hacer predicciones. En este video vemos funciones como la función logística / sigmoid, la tangente hiperbólica / tanh, Softsign, ReLU, Leaky ReLU, Parametric ReLU, GELU, SILU, ELU, Softplus, Maxout, Swish, Mish, GCU, Softmax y la función de identidad.
Muchas de las funciones permiten que el proceso de propagación hacia atrás funcione de manera más eficiente, por lo que buscamos funciones de activación con diversas propiedades como ser diferenciables, que tengan un bajo costo computacional, y en algunos casos que estén centradas en el cero, o que sean no monotónicas.
En el video vemos de manera intuitiva cómo y por qué funcionan, con apoyos visuales y revisión de publicaciones.
#machinelearning #redesneuronales #inteligenciaartificial
Видео Funciones de activación a detalle (Redes neuronales) канала Ringa Tech
Ya tengo cursos!
Aprende a programar desde cero con Python:
https://www.domestika.org/es/courses/5228-introduccion-a-la-programacion-con-python/ringatech
Aprende IA desde cero con Python:
https://www.domestika.org/es/courses/5239-introduccion-a-la-ia-con-python/ringatech
Si quieres apoyarme y formar parte de este proyecto, puedes hacerlo de varias maneras:
- Patreon: http://bit.ly/patreon-ringatech
- Membresía Youtube: https://www.youtube.com/channel/UCm9QZ70KuIVShztZ7HmE4NQ/join
- Si el video te gustó, da clic en me gusta y déjame un comentario!
= = = CONTENIDO
0:00 ¿Para qué sirven?
4:18 Escalón / Step
4:55 Derivadas
6:48 Logística / Sigmoid
7:52 Desvanecimiento de gradiente
9:07 Tangente hiperbólica y Softsign
11:00 ReLU
12:45 Neuronas muertas
13:35 Leaky ReLU
14:00 PReLU y GELU
14:44 Softplus, Maxout, ELU
15:43 Swish / SiLU
16:29 Mish
17:15 Identidad y Softmax
19:47 Cuándo usar cada una
21:24 ¿Oscilatorias?
= = =
Descripción larga para el algoritmo:
Las funciones de activación son un componente indispensable para que las redes neuronales puedan generar el aprendizaje para poder hacer predicciones. En este video vemos funciones como la función logística / sigmoid, la tangente hiperbólica / tanh, Softsign, ReLU, Leaky ReLU, Parametric ReLU, GELU, SILU, ELU, Softplus, Maxout, Swish, Mish, GCU, Softmax y la función de identidad.
Muchas de las funciones permiten que el proceso de propagación hacia atrás funcione de manera más eficiente, por lo que buscamos funciones de activación con diversas propiedades como ser diferenciables, que tengan un bajo costo computacional, y en algunos casos que estén centradas en el cero, o que sean no monotónicas.
En el video vemos de manera intuitiva cómo y por qué funcionan, con apoyos visuales y revisión de publicaciones.
#machinelearning #redesneuronales #inteligenciaartificial
Видео Funciones de activación a detalle (Redes neuronales) канала Ringa Tech
Показать
Комментарии отсутствуют
Информация о видео
Другие видео канала
![Creo Un Asistente Virtual Que Hace Todo (Y Se Rebela)](https://i.ytimg.com/vi/-0tIy8wWtzE/default.jpg)
![Avances en leer MENTE y SUEÑOS con Inteligencia Artificial](https://i.ytimg.com/vi/GmeIYN7MoRY/default.jpg)
![¿Por qué ChatGPT parece inteligente?](https://i.ytimg.com/vi/b6G3tN9ESbE/default.jpg)
![Cómo ChatGPT dió VIDA a un pueblo virtual](https://i.ytimg.com/vi/SGPNhwQYb4M/default.jpg)
![ChatGPT ahora tiene superpoderes - Plugins](https://i.ytimg.com/vi/OC888STwrlU/default.jpg)
![Lo que no se habla de GPT-4](https://i.ytimg.com/vi/YqjyYZ4jsAw/default.jpg)
![Uso Python e IA para jugar sin control y se rompe la silla](https://i.ytimg.com/vi/vroIHqqz3v0/default.jpg)
![Manipulé a Bing, Robó Mis Datos y Perdió La Razón. Te Muestro Cómo](https://i.ytimg.com/vi/l9HKFFQIna4/default.jpg)
![Hablemos de: Chatbots](https://i.ytimg.com/vi/aQf9kzb_3ng/default.jpg)
![Hackearon Reddit, Hay Un Héroe y Mucho Aprendizaje](https://i.ytimg.com/vi/ZOim08yd0uc/default.jpg)
![El Software Que Unió Al Mundo (Por 4 Días)](https://i.ytimg.com/vi/DrOH2fcop3U/default.jpg)
![Intento hacer juegos con Python e IA y me explota la cabeza](https://i.ytimg.com/vi/_BjL6W71mWY/default.jpg)
![El Software Que (A Veces) Te Mataba Con Radiación](https://i.ytimg.com/vi/v5mfyj0S2Ss/default.jpg)
![El Software Que Mató A 346 Personas](https://i.ytimg.com/vi/nurVW3f7FHs/default.jpg)
![Cómo Nintendo Deja Que Te HACKEEN](https://i.ytimg.com/vi/qDOPkDEqp1w/default.jpg)
![¿Cómo optimizamos en 300x los procesos de IA?](https://i.ytimg.com/vi/DcRkEZKU7LQ/default.jpg)
![Por qué separar tus contenedores | Docker](https://i.ytimg.com/vi/dPh2C6kswPQ/default.jpg)
![¿Hackearon Github o no? Los detalles](https://i.ytimg.com/vi/-lU79UVxkQ0/default.jpg)
![Dejo que ataquen mi servidor y acaba mal](https://i.ytimg.com/vi/lAByu20XJt4/default.jpg)
![Docker - La explicación que querías](https://i.ytimg.com/vi/9eTVZwMZJsA/default.jpg)
![¿Adquirió consciencia esta IA de Google?](https://i.ytimg.com/vi/Z2THZ9JaPSU/default.jpg)