Aprende Docker y Kubernetes con este curso gratuito: Práctica

Go to Homepage

Introducción al curso de Docker y Kubernetes

Si te estás iniciando en el mundo de la tecnología, o si simplemente deseas añadir una herramienta más a tu caja de herramientas tecnológicas, te invitamos a que conozcas un poco más sobre Docker y Kubernetes, herramientas de virtualización que han venido a revolucionar la industria en los últimos años.

Este curso de Docker y Kubernetes te asegurará que obtengas los conocimientos necesarios para dominar estas dos tecnologías y sacarles el máximo provecho, lo mejor de todo es que es totalmente gratuito.

En este curso, aprenderás todos los conceptos básicos de Docker y cómo usarlo para crear y administrar contenedores, los cuales son muy útiles para empaquetar tus aplicaciones y distribuirlas de manera sencilla y rápida en cualquier entorno.

Kubernetes, por otro lado, te enseñará cómo administrar y orquestar tus contenedores de manera eficiente y escalable en cualquier entorno. Aprenderás a crear y administrar clústeres, cómo trabajar con diferentes tipos de recursos y objetos de Kubernetes, y cómo utilizarlos para garantizar el alto rendimiento de tus aplicaciones.

Al finalizar el curso, tendrás conocimientos profesionales que te ayudarán a destacarte en el mercado laboral.

Este es un curso práctico, eso quiere decir que no perderás tiempo viendo diapositivas aburridas o teóricas. Al contrario, te enfrentarás a retos concretos que te permitirán adquirir un conocimiento práctico de ambas tecnologías. A lo largo del curso, se te propondrán diferentes escenarios y problemas, podrás aplicar tus conocimientos y validarlos en tiempo real.

El curso está diseñado para que lo puedas hacer a tu propio ritmo, así que no debes preocuparte por horarios o compromisos, puedes estudiar cuando puedas y avanzar a tu propio ritmo.

El equipo de instructores es profesional y tiene amplia experiencia tanto utilizándolo como enseñándolo.

Algunas cosas que aprenderás son:

  • Crear una imagen
  • Crear un contenedor
  • Crear un clúster de Kubernetes
  • Aprender a exponer un servicio
  • Crear un archivo de configuración YAML

Si buscas aprender y dominar las tecnologías de Docker y Kubernetes, este curso es definitivamente una gran opción para ti, ya que te permitirá obtener los conocimientos necesarios para manejar estas tecnologías con soltura y seguridad. No lo dudes, ¡comienza ahora mismo!

Aprende a instalar Docker en tu equipo

Cuando decidimos comenzar a trabajar con Docker, una de las primeras cosas que debemos hacer es instalarlo en nuestro equipo. En este artículo vamos a explicar cómo hacerlo de forma sencilla, paso a paso.

Lo primero que debemos hacer es dirigirnos al sitio web oficial de Docker y descargar el programa según el sistema operativo que tengamos. En nuestro caso, somos usuarias de MacOS, por lo que descargaremos la última versión disponible para este sistema. Una vez descargado, lo ejecutamos y esperamos a que se complete la instalación.

Una vez finalizada la instalación, abrimos el terminal y escribimos el siguiente comando:

docker version

Este comando nos mostrará la versión de Docker que acabamos de instalar, con el fin de verificar que todo se instaló correctamente.

Si todo va bien, podemos continuar explorando Docker. A continuación, veremos algunos comandos básicos para comenzar a trabajar con este programa.

Comandos básicos de Docker

Comando Descripción
docker run Utiliza una imagen de Docker para crear un contenedor.
docker ps Muestra los contenedores que están activos en el momento.
docker stop Detiene un contenedor que se está ejecutando actualmente.
docker rm Elimina un contenedor que ya no se esté utilizando.
docker images Muestra las imágenes de Docker que hemos descargado.

Como podemos apreciar, instalar Docker en nuestro equipo es un proceso bastante sencillo que no debería tomar más que unos pocos minutos. Una vez instalado, podemos comenzar a trabajar con este programa usando algunos comandos básicos.

Si deseamos aprender más sobre Docker y otros programas similares, podemos hacerlo de una forma práctica y guiada a través del curso gratuito que se menciona en el título de este artículo. Esperamos que esta breve guía haya sido útil para todas aquellas personas que desean iniciarse en el mundo de Docker.

Crea tu primer contenedor con Docker

¿Qué es un contenedor? En términos simples, es una forma de empaquetar un conjunto de aplicaciones y sus dependencias necesarias para que puedan ejecutarse en cualquier entorno. Docker es una de las opciones más populares para hacer precisamente eso.

Una de las mejores cosas acerca de Docker es lo fácil que es comenzar. En mi experiencia, me sorprendió mucho lo rápido que pude crear mi primer contenedor Docker y ponerlo en funcionamiento. ¡Veamos cómo hacerlo!

Para empezar, necesitas tener Docker instalado en tu máquina. Puedes hacerlo visitando el sitio web oficial de Docker y siguiendo las instrucciones para instalar la versión adecuada para tu sistema operativo.

Una vez que tengas Docker instalado, puedes comenzar a crear tu primer contenedor. Para hacerlo, necesitas crear un archivo Dockerfile. Este archivo es esencialmente una lista de instrucciones que Docker seguirá para construir tu contenedor.

Por ejemplo, aquí hay un archivo Dockerfile simple que utiliza una imagen base de Ubuntu y agrega el paquete curl al contenedor:

FROM ubuntu
RUN apt-get update && apt-get install -y curl

Guárdalo en algún lugar en tu sistema. Una vez hecho esto, abre una terminal y navega hasta el directorio donde guardaste tu Dockerfile.

Asegúrate de que Docker esté ejecutándose y luego ejecuta el siguiente comando para construir tu contenedor:

docker build -t mi-primer-contenedor .

La opción -t significa “etiqueta” y le da un nombre a tu contenedor para que puedas encontrarlo más fácilmente. El argumento . le dice a Docker que busque el Dockerfile en el directorio actual.

Ahora que el contenedor se ha creado, puedes ejecutarlo con el siguiente comando:

docker run -it --rm mi-primer-contenedor

La opción -it inicia el contenedor en un modo interactivo y la opción --rm significa que Docker eliminará el contenedor automáticamente después de que se detenga.

¡Y eso es todo! Ahora estás ejecutando tu primer contenedor Docker. Si escribes curl en la terminal del contenedor, verá que el paquete está instalado y listo para usar.

Docker hace que sea fácil crear y ejecutar contenedores en cualquier entorno. Este es solo el comienzo de lo que puedes hacer con Docker, pero espero que esta introducción te haya dado una idea de lo poderoso y fácil de usar que es. ¡Buena suerte en tu aprendizaje de Docker y Kubernetes!

Despliega aplicaciones en Kubernetes

Una vez que hemos aprendido los conceptos básicos de Docker y Kubernetes, llega el momento de poner en práctica todo lo aprendido desplegando nuestras aplicaciones en Kubernetes. Pero, ¿cómo lo hacemos? ¿Por dónde empezamos?

Antes de empezar a desplegar nuestras aplicaciones, es importante tener en cuenta algunos aspectos previos:

1. Configurar el ambiente de trabajo

Es necesario tener un ambiente de trabajo configurado y listo para trabajar con Kubernetes. Para esto, podemos utilizar distintas herramientas como Minikube, Docker Desktop, Kind, entre otros. En nuestro caso, utilizaremos Minikube, que nos permitirá levantar un cluster de Kubernetes en nuestro equipo de manera local.

2. Crear archivos de definición

Para desplegar nuestras aplicaciones en Kubernetes, necesitamos crear archivos de definición que nos permitan definir los distintos componentes que conforman nuestra aplicación, como los deployments, services, config maps, entre otros.

Un ejemplo de archivo de definición de un deployment sería el siguiente:

apiVersion: apps/v1
kind: Deployment
metadata:
    name: myapp-deployment
spec:
    replicas: 3
    selector:
        matchLabels:
            app: myapp
    template:
        metadata:
            labels:
                app: myapp
        spec:
            containers:
                - name: myapp
                  image: myapp:latest
                  ports:
                      - containerPort: 8080

3. Desplegar la aplicación

Una vez que hemos creado nuestros archivos de definición, podemos proceder con el despliegue de nuestra aplicación en Kubernetes. Para esto, utilizamos el comando kubectl apply seguido del nombre del archivo de definición. Por ejemplo:

kubectl apply -f myapp-deployment.yaml

Y ¡listo! Nuestra aplicación ha sido desplegada en Kubernetes y está lista para ser utilizada.

Es importante mencionar que durante el proceso de despliegue, podemos monitorear el estado de nuestros pods y deployments utilizando el comando kubectl get, como por ejemplo:

kubectl get pods
kubectl get deployments

Desplegar aplicaciones en Kubernetes es una tarea fundamental para poder utilizar todo el potencial de esta plataforma de orquestación de contenedores. Con los pasos mencionados anteriormente, podrás desplegar tus propias aplicaciones en Kubernetes de manera sencilla y eficiente. ¡Anímate a probarlo!

Escalando aplicaciones en Kubernetes

¿Has escuchado hablar de Kubernetes? Este es un potente sistema de orquestación de contenedores que te permite escalar, administrar y desplegar aplicaciones de forma fácil y rápida. En esta sección te contaremos cómo puedes escalar tus aplicaciones en Kubernetes para afrontar los retos de la demanda cambiante.

Lo primero que debes saber es que Kubernetes tiene un objeto llamado Deployment que es responsable de la gestión de un conjunto de réplicas de una aplicación. Al crear un Deployment, se especifica cuántas réplicas de la aplicación se deben ejecutar en el clúster y Kubernetes se encargará de garantizar que se cumpla esa solicitud.

Para escalar una aplicación, lo que debes hacer es actualizar el número de réplicas que se ejecutan mediante el comando kubectl scale. Por ejemplo, si queremos aumentar el número de réplicas a cinco, podemos ejecutar:

kubectl scale deployment mi-aplicacion --replicas=5

De forma similar, si queremos disminuir el número de réplicas a tres, podemos ejecutar:

kubectl scale deployment mi-aplicacion --replicas=3

Además de cambiar el número de réplicas, también es posible actualizar otros aspectos del Deployment, como la imagen que se está ejecutando o la configuración utilizada para crear las réplicas.

Es importante tener en cuenta que Kubernetes no escala automáticamente tu aplicación de forma horizontal. En su lugar, debes especificar la cantidad de réplicas que deseas tener. A medida que cambia la carga de trabajo, debes actualizar dinámicamente el número de réplicas para adaptarla.

También es importante tener en cuenta que si tu aplicación no está diseñada para ser escalable horizontalmente, no podrás escalarla simplemente agregando más réplicas. Por eso, es importante pensar en la escalabilidad desde el principio al diseñar y desarrollar tus aplicaciones.

Escalar aplicaciones en Kubernetes es fácil y rápido utilizando el objeto Deployment y el comando kubectl scale. Sin embargo, es importante tener en cuenta que debes diseñar tus aplicaciones teniendo en cuenta la escalabilidad horizontal desde el principio para evitar problemas en el futuro. ¡No dudes en probarlo por ti mismo y experimentar con tus aplicaciones!

Monitoreo y resolución de problemas en Kubernetes

Durante nuestro recorrido en el curso gratuito de Docker y Kubernetes, hemos aprendido cómo usar Kubernetes para crear, escalar y administrar aplicaciones. Pero, ¿cómo sabemos si algo sale mal en nuestra aplicación y cómo podemos solucionarlo? En esta sección, discutiremos cómo monitorear y resolver problemas en Kubernetes.

Monitorear

La supervisión es fundamental para comprender el rendimiento y el comportamiento de nuestras aplicaciones en Kubernetes. Hay varias herramientas útiles que podemos utilizar para supervisar nuestras aplicaciones. Una de ellas es Prometheus, una herramienta de monitoreo de código abierto que recopila y almacena métricas de aplicaciones. Con Prometheus, podemos recopilar métricas importantes de nuestras aplicaciones, tales como uso de memoria, utilización de CPU y tráfico de red. Esto permite a los desarrolladores y administradores de sistemas detectar tendencias y problemas en el rendimiento de las aplicaciones.

Otra herramienta de monitoreo popular es Grafana. Grafana es un panel de visualización de datos que nos permite visualizar y analizar los datos que se recopilan con Prometheus. Con Grafana, podemos crear paneles personalizados para visualizar las métricas de nuestras aplicaciones.

Resolver problemas

Si algo sale mal en nuestras aplicaciones en Kubernetes, necesitamos poder solucionarlo rápidamente para minimizar el tiempo de inactividad y la pérdida de datos. Kubernetes proporciona varias herramientas útiles para resolver problemas.

Uno de ellos es kubectl. kubectl es una herramienta de línea de comandos que nos permite trabajar con clústeres de Kubernetes. Podemos usar kubectl para verificar el estado de los componentes de nuestras aplicaciones, tales como pods, servicios y replicaset. También podemos usar kubectl para acceder a los registros de nuestras aplicaciones y ver cualquier error o excepción que haya ocurrido.

Otra herramienta útil para resolver problemas es el tablero de Kubernetes. El tablero es una interfaz de usuario basada en la web que nos permite visualizar el estado de los objetos de Kubernetes en un clúster. Podemos usar el tablero para ver el estado de los pods y los pods en ejecución en nuestro clúster, así como para ver los registros y la información de diagnóstico de los pods.

Para monitorear y resolver problemas en Kubernetes, necesitamos utilizar herramientas de supervisión como Prometheus y Grafana, y herramientas de resolución de problemas como kubectl y el tablero de Kubernetes. Con estas herramientas, podemos asegurarnos de que nuestras aplicaciones funcionen sin problemas y solucionar rápidamente cualquier problema que surja.

Integración continua y entrega en Kubernetes

Cuando empecé a aprender acerca de Docker y Kubernetes, mi principal objetivo era simplificar el proceso de entrega de mis aplicaciones. Sin embargo, me di cuenta de que para lograr una entrega constante y sin problemas, necesitaba integrar una integración continua (CI) y una entrega continua (CD) en mi proceso de desarrollo.

La integración continua es un enfoque en el que se integra el código en un repositorio central tan pronto como se realiza un cambio. Luego, se realiza una compilación y pruebas automáticas para detectar errores de inmediato, antes de que se implemente el código en el entorno de producción.

La entrega continua es un proceso en el que los cambios aprobados se entregan de manera constante y automatizada al entorno de producción. La idea es que cualquier cambio en el código debe ser entregado de manera segura y estable, sin interrupciones para el usuario final.

En Kubernetes, estas prácticas pueden ser implementadas a través de la creación de pipelines en Jenkins, la cual es una herramienta popular de integración continua.

Un pipeline en Jenkins es un conjunto de pasos que se ejecutan automáticamente cuando se realiza un cambio en el código. Estos pasos incluyen la compilación del código, las pruebas, el empaquetamiento del código en un contenedor de Docker y la implementación del contenedor en Kubernetes.

Para crear un pipeline en Jenkins, primero necesitas crear un archivo de configuración llamado Jenkinsfile en tu repositorio de código.

Un ejemplo de archivo Jenkinsfile para un proyecto de Node.js en Kubernetes sería el siguiente:

pipeline {
  agent {
    kubernetes {
      label 'minikube'
      defaultContainer 'jnlp'
      yaml """
apiVersion: v1
kind: Pod
metadata:
  labels:
    jenkins: slave
spec:
  containers:
  - name: node
    image: node:12-alpine
    command:
    - cat
    tty: true
"""
    }
  }
  stages {
    stage('Build') {
      steps {
        container('node') {
          sh 'npm install'
        }
      }
    }
    stage('Test') {
      steps {
        container('node') {
          sh 'npm test'
        }
      }
    }
    stage('Build Docker image') {
      steps {
        sh 'docker build -t acme/my-node-app .'
      }
    }
    stage('Push Docker image') {
      steps {
        withCredentials([usernamePassword(credentialsId: 'docker-login', usernameVariable: 'USERNAME', passwordVariable: 'PASSWORD')]) {
          sh 'docker login -u $USERNAME -p $PASSWORD'
        }
        sh 'docker push acme/my-node-app'
      }
    }
    stage('Deploy to Kubernetes') {
      steps {
        kubernetesDeploy(
          configs: 'kubernetes/',
          kubeconfigId: 'kubeconfig',
          enableConfigSubstitution: true,
          enableConfigMapSubstitution: true,
          failOnError: true
        )
      }
    }
  }
}

En este ejemplo, se sigue una secuencia de pasos para realizar la integración continua y entrega continua en Kubernetes:

  1. Se define el ambiente Kubernetes donde se ejecutara el pipeline.
  2. Se compila y prueba el código en su ambiente naturan Node.js.
  3. Se crea una imagen de Docker que incluya el código compilado.
  4. Se envía la imagen a un repositiorio Docker registry.
  5. Se despliega la imagen en Kubernetes mediante los manifiestos de configuración ubicados en el directorio kubernetes/.

Jenkins también te permite monitorear y controlar el estado de tus pipelines, así como configurar notificaciones por correo electrónico o chat cuando se realicen ciertos eventos en el proceso.

La integración continua y entrega continua en Kubernetes es esencial para lograr una implementación segura, estable y sin interrupciones en el proceso de entrega de las aplicaciones. Aprender a implementar estas prácticas es un deber si deseas sacar máximo provecho de un infraestructura de kubernetes automatizada.

Administración de recursos en Kubernetes

En el mundo de Kubernetes, la administración de recursos es una tarea esencial para garantizar la eficiencia y la escalabilidad de los contenedores que corren en nuestro cluster. Como miembros del equipo de desarrollo de software, aprendimos la importancia de la administración de recursos en Kubernetes, en nuestro curso gratuito de Práctica.

En primer lugar, es importante mencionar que los recursos en Kubernetes son elementos como la memoria y la CPU que se utilizan para correr los contenedores en un cluster. Cuando creamos un pod, uno de los recursos que debemos especificar es la cantidad de CPU y memoria que necesitamos. Este paso es vital para prevenir que los contenedores tomen recursos innecesarios, lo que puede afectar negativamente la estabilidad y el rendimiento del cluster.

Además de especificar la cantidad de recursos que necesita cada pod, existe una forma de administrar estos recursos de forma dinámica. Es decir, Kubernetes puede monitorear la cantidad de recursos utilizados por cada pod y redistribuirlos entre los contenedores que necesitan más recursos. Para hacer esto posible, se definen límites y requerimientos de recursos para cada pod utilizando un archivo de configuración YAML.

A continuación, se muestra un ejemplo de cómo definir estos límites y requerimientos de recursos en un archivo de configuración YAML:

apiVersion: v1
kind: Pod
metadata:
    name: my-pod
spec:
    containers:
        - name: my-container
          image: my-image
          resources:
              limits:
                  cpu: "1"
                  memory: "500Mi"
              requests:
                  cpu: "500m"
                  memory: "250Mi"

En este ejemplo, estamos especificando que el contenedor my-container necesita un mínimo de 500m CPU y 250Mi de memoria. Sin embargo, también estamos definiendo un límite máximo de 1 CPU y 500Mi de memoria que no puede exceder el contenedor. Esto garantiza que nuestro cluster no se sature de recursos inesperadamente.

Además, Kubernetes facilita la administración de recursos gracias a la integración de herramientas como Autoscaler, Horizontal Pod Autoscaler y Cluster Autoscaler, que permiten ajustar de forma automática los recursos asignados a tus pods en función de la fluctuación de la demanda en tu aplicación.

La administración de recursos en Kubernetes es un aspecto fundamental a considerar en el desarrollo de aplicaciones contenedorizadas eficientes y escalables. Con la ayuda de Kubernetes y sus herramientas, podemos administrar estos recursos para maximizar el rendimiento y asegurar la estabilidad del cluster. Aprovecha nuestro curso gratuito de Práctica para aprender todos los detalles sobre el tema.

Automatización con Helm en Kubernetes

Si ya has estado trabajando con Docker y Kubernetes, seguramente has tenido que pasar por el doloroso proceso de instalar y configurar aplicaciones con múltiples componentes. Pero, gracias a la automatización, este proceso puede volverse mucho más sencillo con el uso de Helm.

Helm es un administrador de paquetes para Kubernetes que nos permite automatizar la instalación y configuración de aplicaciones en nuestro clúster. Este administrador de paquetes se basa en un concepto llamado “charts” que, a grandes rasgos, son archivos que describen los componentes y la configuración necesaria para instalar una aplicación.

En mi experiencia personal trabajando con Kubernetes, he tenido que instalar aplicaciones con múltiples componentes que requerían configuraciones específicas para funcionar correctamente. Pero gracias a Helm, pude automatizar y simplificar en gran medida este proceso.

Por ejemplo, si quisiera instalar la aplicación grafana en mi clúster de Kubernetes, tendría que realizar los siguientes pasos:

  1. Descargar e instalar la aplicación
  2. Configurar la conexión a mi base de datos
  3. Configurar todos los paneles y tableros necesarios

Estos pasos pueden ser tediosos e incluso propensos a errores. Pero con Helm, puedo simplemente ejecutar el siguiente comando:

helm install grafana grafana/grafana

Este comando se encargará de descargar e instalar la aplicación (en este caso, grafana), además de aplicar automáticamente todas las configuraciones necesarias, gracias al archivo chart de grafana.

Pero eso no es todo, con Helm también podemos actualizar y desinstalar aplicaciones de manera automatizada utilizando comandos similares. Incluso podemos crear nuestros propios archivos chart para aplicaciones personalizadas que podemos compartir con la comunidad Kubernetes.

Si ya estás trabajando con Docker y Kubernetes, debes considerar seriamente el uso de Helm para simplificar y automatizar el proceso de instalación y configuración de tus aplicaciones. No solo te ahorrará tiempo y esfuerzo, sino que también te asegurarás de que tus aplicaciones estén instaladas correctamente y funcionando de la manera esperada en tu clúster. Así que no dudes en dar un vistazo a este administrador de paquetes y verás cómo se convertirá en una herramienta indispensable en tu workflow de Kubernetes.

Seguridad en Kubernetes

Cuando comenzamos a trabajar con Kubernetes, una de las primeras preocupaciones que debemos tener es la seguridad de nuestra aplicación y de nuestra infraestructura. Aunque Kubernetes es una plataforma muy segura por diseño, no está exenta de riesgos y vulnerabilidades. En este artículo, exploraremos algunas prácticas de seguridad importantes que debemos tener en cuenta al trabajar con Kubernetes.

Autenticación y autorización

La autenticación y la autorización son dos elementos cruciales de la seguridad de Kubernetes. La autenticación se refiere a la verificación de identidad de un usuario o sistema, mientras que la autorización se refiere a la asignación de permisos a los usuarios o sistemas. Kubernetes admite varios mecanismos de autenticación y autorización, que incluyen:

  • Certificados
  • Nombres de usuario y contraseñas
  • Tokens de autenticación
  • Mecanismos de federación (por ejemplo, OpenID Connect)

Es importante que configuremos estos mecanismos de manera adecuada y que restrinjamos el acceso a nuestros recursos solo a los usuarios y sistemas autorizados.

Veamos un ejemplo de cómo configurar el mecanismo de autenticación mediante certificados TLS:

apiVersion: v1
kind: ServiceAccount
metadata:
    name: my-service-account
    namespace: my-namespace
---
apiVersion: rbac.authorization.k8s.io/v1
kind: RoleBinding
metadata:
    name: my-role-binding
    namespace: my-namespace
roleRef:
    apiGroup: rbac.authorization.k8s.io
    kind: ClusterRole
    name: view
subjects:
    - kind: ServiceAccount
      name: my-service-account
      namespace: my-namespace
---
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
    name: my-deployment
    namespace: my-namespace
spec:
    replicas: 1
    template:
        metadata:
            labels:
                app: my-app
        spec:
            serviceAccountName: my-service-account
            containers:
                - name: my-container
                  image: my-image
                  ports:
                      - containerPort: 8080

En este ejemplo, creamos una cuenta de servicio y un enlace de rol en el namespace my-namespace. Además, configuramos el pod de nuestro deployment para que use la cuenta de servicio my-service-account. De esta manera, podemos asegurar que solo los usuarios con los certificados correspondientes podrán acceder a nuestros recursos.

Networking

Kubernetes usa una red plana y una dirección IP por pod. Esto significa que los pods pueden comunicarse directamente entre sí sin pasar por ningún tipo de firewall o proxy. Para garantizar una red segura, debemos limitar el acceso de los pods a los recursos que necesitan.

Podemos crear NetworkPolicies en Kubernetes para definir las reglas de filtrado de paquetes para los pods. Por ejemplo, supongamos que queremos permitir que solo los pods en el namespace my-namespace se comuniquen con nuestro deployment. Podríamos crear una NetworkPolicy como la siguiente:

apiVersion: networking.k8s.io/v1
kind: NetworkPolicy
metadata:
    name: allow-my-namespace
    namespace: my-namespace
spec:
    podSelector: {}
    policyTypes:
        - Ingress
    ingress:
        - from:
              - podSelector:
                    matchLabels:
                        app: my-app

En este ejemplo, creamos una NetworkPolicy que permite el tráfico entrante solo desde los pods que tengan la etiqueta app: my-app. De esta manera, podemos garantizar que solo los pods autorizados pueden acceder a nuestro deployment.

Conclusion

En este artículo, hemos discutido algunas prácticas importantes de seguridad que debemos tener en cuenta al trabajar con Kubernetes. La autenticación y la autorización son fundamentales para restringir el acceso a nuestros recursos, y las NetworkPolicies nos permiten limitar el tráfico y asegurar nuestra red. Al seguir estos principios de seguridad, podemos garantizar que nuestra infraestructura y nuestra aplicación estén protegidas contra posibles amenazas.

Otros Artículos