Aprendizaje profundo con R, 2.ª edición



Hoy nos complace anunciar el lanzamiento de Aprendizaje profundo con R, 2.ª edición. En comparación con la primera edición, el libro es más de un tercio más largo, con más del 75 % de contenido nuevo. No es tanto una edición actualizada como un libro completamente nuevo.

Este libro le muestra cómo comenzar con el aprendizaje profundo en R, incluso si no tiene experiencia en matemáticas o ciencia de datos. El libro cubre:

  • Aprendizaje profundo desde los primeros principios

  • Clasificación de imágenes y segmentación de imágenes.

  • Pronóstico de collection de tiempo

  • Clasificación de textos y traducción automática

  • Generación de texto, transferencia de estilo neuronal y generación de imágenes.

Solo se supone un conocimiento modesto de R; todo lo demás se explica desde cero con ejemplos que demuestran claramente la mecánica. Aprenda sobre gradientes y retropropagación usando tf$GradientTape()
redescubrir la constante de aceleración de la gravedad de la Tierra (9,8 (m/s^2)). Aprende lo que es un keras Layer es—implementando uno desde cero usando solo la base R. Aprenda la diferencia entre la normalización por lotes y la normalización por capas, qué layer_lstm() hace, qué pasa cuando llamas
match()y así sucesivamente, todo a través de implementaciones en código R easy.

Cada sección del libro ha recibido actualizaciones importantes. Los capítulos sobre visión por computadora obtienen un recorrido completo de cómo abordar una tarea de segmentación de imágenes. Las secciones sobre clasificación de imágenes se han actualizado para usar {tfdatasets} y capas de preprocesamiento de Keras, lo que demuestra no solo cómo componer una canalización de datos eficiente y rápida, sino también cómo adaptarla cuando su conjunto de datos lo requiera.

Los capítulos sobre modelos de texto se han reelaborado por completo. Aprenda a preprocesar texto sin procesar para el aprendizaje profundo, primero implementando una capa de vectorización de texto usando solo R base, antes de usar
keras::layer_text_vectorization() de nueve maneras diferentes. Aprenda a incrustar capas implementando una personalizada
layer_positional_embedding(). Aprenda sobre la arquitectura del transformador implementando un personalizado layer_transformer_encoder() y
layer_transformer_decoder(). Y, en el proceso, junte todo entrenando modelos de texto: primero, un clasificador de sentimientos de reseñas de películas, luego, un traductor de inglés a español y, por último, un generador de texto de reseñas de películas.

Los modelos generativos tienen su propio capítulo dedicado, que cubre no solo la generación de texto, sino también los codificadores automáticos variacionales (VAE), las redes antagónicas generativas (GAN) y la transferencia de estilo.

A lo largo de cada paso del camino, encontrará intuiciones salpicadas destiladas de la experiencia y la observación empírica sobre lo que funciona, lo que no funciona y por qué. Respuestas a preguntas como: ¿cuándo debería usar una bolsa de palabras en lugar de una arquitectura de secuencia? ¿Cuándo es mejor usar un modelo previamente entrenado en lugar de entrenar un modelo desde cero? ¿Cuándo debería usar GRU en lugar de LSTM? ¿Cuándo es mejor usar convolución separable en lugar de convolución common? Cuando el entrenamiento es inestable, ¿qué pasos de resolución de problemas debe tomar? ¿Qué puedes hacer para que el entrenamiento sea más rápido?

El libro evita la magia y los gestos con las manos y, en cambio, abre el telón de todos los conceptos fundamentales necesarios para aplicar el aprendizaje profundo. Después de trabajar con el materials del libro, no solo sabrá cómo aplicar el aprendizaje profundo a tareas comunes, sino que también tendrá el contexto para ir y aplicar el aprendizaje profundo a nuevos dominios y nuevos problemas.

Aprendizaje profundo con R, segunda edición

Reutilizar

El texto y las figuras tienen licencia de Artistic Commons Attribution CC POR 4.0. Las figuras que se han reutilizado de otras fuentes no se incluyen en esta licencia y se pueden reconocer por una nota en su título: “Figura de…”.

Citación

Para la atribución, cite este trabajo como

Kalinowski (2022, Might 31). Posit AI Weblog: Deep Studying with R, 2nd Version. Retrieved from https://blogs.rstudio.com/tensorflow/posts/2022-05-31-deep-learning-with-R-2e/

cita BibTeX

@misc{kalinowskiDLwR2e,
  writer = {Kalinowski, Tomasz},
  title = {Posit AI Weblog: Deep Studying with R, 2nd Version},
  url = {https://blogs.rstudio.com/tensorflow/posts/2022-05-31-deep-learning-with-R-2e/},
  12 months = {2022}
}

Related Articles

HomePod mini 2 y más actualizaciones de audio de Apple en 2024, según informe

Teníamos algunos indicios de que Apple lanzará nuevos AirPods en...

Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Same Category

spot_img

Stay in touch!

Follow our Instagram