Świat Devopsów
IaC, GitOps – wprowadzenie
Czas trwania – 2 dni
Informacje o szkoleniu
W trakcie szkolenia uczestnicy poznają podstawową wiedzę związaną z podejściem Infrastructure as a Code (IaC) oraz GitOps. Zostaną przedstawione możliwości implementacji z wykorzystaniem najlepszych praktyk pod względem użytkowania oraz bezpieczeństwa. W trakcie szkolenia odbędą się również praktyczne warsztaty, na których będzie implementowana przykładowa infrastruktura IT.
Dla kogo jest przeznaczone szkolenie?
Dla administratorów IT,
dla DevOps inżynierów interesujących się automatyzacją i bezpiecznym, szybkim konfigurowaniem infrastruktury IT.
Co należy wiedzieć przed szkoleniem?
Wymagana jest podstawowa wiedza związania z zarządzaniem serwerami oraz tworzeniem infrastruktury IT.
Zagadnienia
1.Co to znaczy IaC oraz GitOps
2.Różnice w implementacji
3.Korzyści wynikające z korzystania z IaC oraz GitOps
4.Przegląd narzędzi
5.Warsztaty: Implementacja podejścia IaC oraz GitOps
Azure Cloud
Azure DevOps
Kubernetes
Terraform
Argo CD
Wprowadzenie do systemów monitoringu TICK (Telegraf, InfluxDB, Kapacitor, Chronograf)
Czas trwania – 2 dni
Informacje o szkoleniu
W trakcie szkolenia uczestnicy zapoznają się ze stosem monitoringu TICK (Telegraf, InfluxDB, Chronograf, Kapacitor) dostarczonym przez InfluxData. Szkolenie ma formę warsztatów i ma na celu przedstawić instalacje i konfiguracje omawianego monitoringu w oparciu o systemy Debian Linux. Na szkoleniu również zostają poruszone sposoby monitoringu aplikacji uruchomionych w kontenerach. Każdy z uczestników na czas trwania zajęć dostaje swoją infrastrukturę wirtualną w chmurze publicznej, na których są wykonywane ćwiczenia.
Dla kogo jest przeznaczone szkolenie?
Dla inżynierów, którzy zajmują się systemami monitoringu,
dla programistów,
dla osób zainteresowanych praktycznym wykorzystywaniem przedstawionych narzędzi.
Co należy wiedzieć przed szkoleniem?
Wymagana jest podstawowa znajomość:
systemów Linux,
podstawy konteneryzacji z wykorzystaniem narzędzia Docker,
SSH – wszystkie ćwiczenia wykonywane są na zdalnych serwerach w chmurze publicznej poprzez klienta SSH.
Zagadnienia
1.Podstawy monitoringu
2.Wprowadzenie do TICK
3.Instalacja i konfiguracja w systemie Debian:
InfluxDB
Telegraf
Chronograf
Kapacitor
4.Wprowadzenie do InfluxQL i eksploracja InfluxDB
5.Wprowadzenie do Tick script i tworzenie alertów w Kapacitor
6.Tworzenie wizualizacji za pomocą Chronograf
7.Ćwiczenia z instalacji i konfiguracji kompletnego systemu monitoringu w oparciu o systemy Linux Debian.
Wymagania sprzętowe
Każdy z uczestników powinien posiadać Laptop z systemem:
Windows 10
MacOS
Linux np. Ubuntu
Zainstalowany klient OpenSSH
Wprowadzenie do systemów monitoringu w oparciu o Prometheus i Grafana
Czas trwania – 2 dni
Informacje o szkoleniu
W trakcie szkolenia uczestnicy zapoznają się z oprogramowaniem do monitoringu Prometheus i Grafana. Zajęcia mają formę warsztatów, których celem jest między innymi przedstawienie instalacji i konfiguracji omawianego monitoringu w oparciu o systemy Debian Linux. Uczestnikom zostają pokazane sposoby monitoringu aplikacji uruchomionych w kontenerach. Każdy z nich na czas trwania szkolenia dostaje swoją infrastrukturę wirtualną w chmurze publicznej, na których są wykonywane ćwiczenia.
Dla kogo jest przeznaczone szkolenie?
Dla inżynierów, którzy zajmują się systemami monitoringu,
dla programistów,
dla innych osób zainteresowanych praktycznym wykorzystywaniem przedstawionych narzędzi.
Co należy wiedzieć przed szkoleniem?
Wymagana jest podstawowa znajomość:
systemów Linux,
podstawy konteneryzacji z wykorzystaniem narzędzia Docker,
SSH – wszystkie ćwiczenia wykonywane są na zdalnych serwerach w chmurze publicznej poprzez klienta SSH.
Zagadnienia
1.Podstawy monitoringu
2.Wprowadzenie do Prometheus i omówienie architektury
3.Instalacja i konfiguracja Prometheus
4.Monitowanie serwerów
5.Monitorowanie kontenerów
6.Wprowadzenie do Dashboards
7.Integracja node_ exporter z Prometheus
8.Wprowadzenie do alertów
9.Wprowadzenie do Grafana
10.Instalacja i konfiguracja Grafana
11.Integracja Grafana i Prometheus
12.Ćwiczenia z instalacji i konfiguracji kompletnego systemu monitoringu w oparciu o systemy Debian Linux.
Wymagania sprzętowe
Każdy z uczestników powinien posiadać Laptop z systemem:
Windows 10
MacOS
Linux np. Ubuntu
Zainstalowany klient OpenSSH
Monitorowanie systemów przy użyciu Grafana, Prometheus i Thanos oraz Loki
Czas trwania – 3 dni
Szkolenie jest w języku polskim.
Wersja angielska – english version
Szkolenie dostępne jest zarówno w formie zdalnej jak i stacjonarnej.
Poziom podstawowy
Informacje o szkoleniu:
W trakcie szkolenia uczestnik zostaje zaznajomiony z Prometheusem, komponentami Thanos jak również eksporterami, które to służą do monitoringu aplikacji i serwerów. Zostają przybliżone mu narzędzia Grafana Loki i Promtail – wykorzystywane do agregacji logów z aplikacji i serwerów. Kursant zapoznaje się z Grafaną – oprogramowaniem do analityki i interaktywnej wizualizacji danych. Podczas zajęć każdy uczestnik ma dostęp do infrastruktury w chmurze publicznej, na których są wykonywane ćwiczenia. Szkolenie ma formę warsztatów i ma na celu przedstawić instalacje i konfiguracje omawianego monitoringu w oparciu o systemy Debian Linux oraz klaster Kubernetes.
Forma szkolenia – Warsztaty
95% czasu szkolenia poświęcone jest wykonywanie zadań podczas workshop-ów.
5 % – czasu szkolenia to teoretyczne wprowadzenie do wykonywanych labów.
Parę informacji o samych narzędziach – kliknij
Dla kogo jest przeznaczone szkolenie?
Dla inżynierów zajmujących się systemami monitoringu,
dla programistów,
dla innych osób zainteresowanych praktycznym wykorzystywaniem przedstawionych narzędzi.
Co należy wiedzieć przed szkoleniem?
Wymagane są:
podstawowa znajomość systemów Linux: wykonywanie poleceń w terminalu,
podstawy konteneryzacji z wykorzystaniem narzędzia Docker,
SSH – wszystkie ćwiczenia wykonywane są na zdalnych serwerach w chmurze publicznej z wykorzystaniem klienta SSH.
Zagadnienia:
I Dzień
1.Wprowadzenie do systemu monitoringu Prometheus:
Instalacja i weryfikacja działania na serwerze w chmurze publicznej,
Uruchomienie Prometheus jako usługi.
2.Wprowadzenie do konfiguracji Prometheus:
Zapoznanie się z panelem kontrolnym,
Instalacja kilku Node-Exporter na lokalnym i zdalnym serwerach.
3.Prometheus i język zapytań PromQL:
Wprowadzenie do PromQL,
Wyrażenia regularne,
Typy danych w PromQL,
Zaawansowane zapytania PromQL.
4.Tworzenie własnych metryk ze skomplikowanych zapytań i zapisywanie ich jako Recording Rules.
5.Alerty i Prometheus:
Wprowadzenie,
Tworzenie Alerting rules,
Instalacja Alert Manager,
Wysyłanie powiadomień przez SMTP.
6.Prometheus i protokół SNMP:
Monitoring serwerów przez protokół SNMP.
7.Monitorowanie certyfikatów SSL za pomocą node-cert-exporter.
8.Monitorowanie końcówek za pomocą blackbox-exporter.
9.Prometheus i Thanos:
Wprowadzenie do Thanos,
Thanos z punktu widzenia użytkownika,
Thanos i setup HA (ang. High Availability).
II Dzień
1.Wprowadzenie do Grafana.
2.Instalacja Grafana.
3.Wprowadzenie do tworzenia wykresów: Graph, Stat, Gauge, Bar Gauge, Table i Logs Panels.
4.Konfiguracja Data Source i wyświetlanie danych w Grafana:
MySQL,
Prometheus
Zabbix
ElasticSearch
5.Instalacja dashboardów w Grafana
6.Wprowadzenie do Loki i Promtail:
Konfiguracja narzędzi oraz używanie PromQL w Grafanie
Dodatkowe logi w Loki – jak je konfigurować
Konfiguracja Data Source w Loki
III Dzień
1.Konfiguracja Annotation Queries i łączenie paneli grafami i logami
2.Konfiguracja: Dynamic Dashboard Variables, Dynamic Tables
3.Konfiguracja alertów
4.Kopiowanie, tworzenie kopii zapasowych i odtwarzanie dashboardów
5.Zarządzanie użytkownikami
6.Monitoring K8s za pomocą Prometheus
Konfiguracja monitoringu aplikacji
Tworzenie dashboardów dla aplikacji
Wyświetlanie logów z aplikacji w Grafana
Jakie korzyści daje szkolenie?
Uczestnik po zakończeniu szkolenia będzie posiadał wiedzę z zakresu:
1. Architektury ekosystemu Prometheus, Thanos, Grafana i Loki,
2. Dostępnych metryk w Prometheus,
3. Podstaw języka PromQL co przełoży się na efektywne wykonywanie odpowiednich zapytań np. do wizualizacji metryk w Grafana,
4. Podstaw Thanos.
Ponadto dowie się w jaki sposób:
5.Współpracuje Thanos z Prometheus tak aby łatwo korzystać z rozbudowanych systemów monitoringu,
6.Zbierać metryki z różnych systemów np. baz danych, systemów operacyjnych z użyciem eksporterów,
7.Z integrować kod swojej aplikacji z Prometheus wykorzystując dostępne biblioteki dla różnych języków programowania oraz framework-ów.
Jak również nauczy się:
8. W Grafanie tworzyć efektywne wizualizacje metryk, które pomogą rozwiązywać problemy związane z działaniem systemów i aplikacji,
9. Po przez ćwiczenia związane z Loki – praktycznego sposobu agregowania logów z aplikacji i systemów, a także jak integrować je w Grafana.
Wymagania sprzętowe i środowiskowe
Każdy z uczestników powinien posiadać.
1.Laptop z systemem:
●Windows 10
●MacOS
●Linux np. Ubuntu
2.Zainstalowany klient OpenSSH
3.Ćwiczenie są prowadzone na infrastrukturze w chmurze publicznej. Należy upewnić się, że uczestnicy będą mogli połączyć się do niej z sieci
firmowej z użyciem protokołów: SSH, HTTP i HTTPS.
W przypadku szkolenia zdalnego – dodatkowy monitor mile widziany:)
Jesteś zainteresowany szkoleniem?
Kliknij poniżej
KONTAKT
Prometheus and Grafana – monitoring and alerting
Lenght – 3 days
Overview
During training participants will get familiar with the software for:
●applications and servers monitoring using Prometheus, Thanos and Prometheus exporters
●logs aggregation using Grafana Loki and Promtail
●visualizing metrics using Grafana
This is a „Learn by example” course.
The main purpose is to demonstrate how to install and configure Prometheus, Grafana, Loki
and Thanos on Debian Linux systems and Kubernetes clusters.
Each participant will get access to the infrastructure in the public cloud on which the exercises
are performed.
Audience
This course is appropriate for:
-Network, Systems and Database Administrators
-Infrastructure Monitoring Specialists
-IT Platform Specialists
-DevOps Technicians
-Enthusiasts wanting a better understanding and better visibility of their networks in the home or office
-Someone who is curious and wants a good understanding of what Grafana and Prometheus do and what they’re good at.
Requirements or prerequisites
-Basic Linux experience,
-Basic Docker experience,
-All commands entered during the lectures are provided in the corresponding resources.
Agenda
1st day:
1.Introduction to Prometheus system:
Prometheus installation on server,
Starting Prometheus as a service in Linux.
2.Introduction to Prometheus config:
Getting to know the Prometheus control panel,
Installing node-exporters on servers in the public cloud to collect metrics from these servers.
3.Prometheus and PromQL:
Introduction to PromQL,
Regular expressions in PromQL,
PromQL data types,
Advanced PromQL queries.
4.Creating custom metrics from complicated queries and save them as Recording Rules.
5.Prometheus alerts:
Introduction to Prometheus alerting,
Creating Alerting rules,
Alert Manager installation,
Configuring Alert Manager to send alerts from Prometheus.
6.Configuring Prometheus to collect metrics from devices by SNMP
7.Monitoring SSL certificates by using node-cert-exporter
8.Monitoring endpoints over HTTP, HTTPS, TCP, ICMP by using blackbox-exporter
9.Thanos:
Introduction to Thanos,
Explaining Thanos for Prometheus user,,
Setup Thanos in HA mode (ang. High Availability).
2nd day:
1.Introduction to Grafana
2.Installing Grafana on server in public cloud
3.Exploring the Graph, Stat, Gauge, Bar Gauge, Table and Logs Panels
4.Creating many different types of Data Sources:
MySQL,
Prometheus
Zabbix
ElasticSearch
5.Experimenting with community created dashboards plus experimenting with our own
6.Introduction to Loki and Promtail:
Installing Loki,
Creating Loki Data Source in Grafana
Installing Promtail,
configuring Promtail to read Nginx logs.
3rd day:
1.Use Annotation Queries to link Logs Panels and Graph Panel
2.Use Dashboard Variables to create Dynamic Dashboards with Automatic Visualization Placement
3.Setup Grafana alerts
4.Grafana backups methods
5.Users management in Grafana
6.Kubernetes Monitoring with Prometheus:
Custom application monitoring,
Creating dashboards for custom application,
Displaying custom application logs in Grafana.
Requirements or prerequisites
1.Laptop with one of following operating systems:
Windows 10
MacOS
Linux e.g.. Ubuntu
2.OpenSSH client installed in the operating system
3.Each participant will use infrastructure in a public cloud
4.Make sure that participants will be able to connect to the public
cloud from the corporate network using the protocols: SSH, HTTP and
HTTPS
Role techniczne w metodologii DevOps – Pogaducha dla rekruterów
Czas trwania – 2 dni
Informacje o szkoleniu:
Szkolenie powstało zmyślą o osobach pracujących w działach: HR, Rekrutacji pracowników, Szkoleń IT. Skierowane jest do osób, które chcą dowiedzieć się czym jest DevOps, a także pokrótce Agile. Uczestnik zostaje zaznajomiony z poszczególnymi rolami technicznymi dla metodologii DevOps oraz Agile. Kurs koncentruje się na czterech stanowiskach: Programista (Developer), DevOps Engineer, Administrator IT oraz Tester Aplikacji. Wskazuje najczęstsze błędy popełniane podczas rekrutacji, a także przyszłość poszczególnych ról.
Dla kogo jest przeznaczone szkolenie?
Dla rekruterów,
dla headhunterów,
dla specjalistów ds. wyszukiwania/organizacji szkoleń dla pracowników,
dla każdego chętnego zapoznać się bliżej z rolami technicznymi w metodologii DevOps.
Zagadnienia
1.Programista (Developer)
Opis stanowiska
Rola developera w zespole DevOps
Umiejętności miękkie, formy współpracy (Agile itd)
Przyszłość stanowiska
2.DevOps Engineer
Jak powstało stanowisko
Dlaczego tak ciężko znaleźć specjalistów
Kompetencje techniczne oraz technologie
Umiejętności miękkie, formy współpracy (Agile itd)
Przyszłość roli DevOps Engineer
3.Administrator IT
Opis stanowiska
Kompetencje techniczne oraz technologie
Różnice między DevOps Inżynierem, a administratorem IT
Przyszłość stanowiska
4.Tester Aplikacji
Opis stanowiska
Tester automatyczny, a manualny
Przyszłość stanowiska
5. Najczęściej popełniane błędy podczas wyszukiwania specjalistów na powyższe stanowiska
Podstawy CI/CD – w oparciu o Azure DevOps
Czas trwania – 3 dni
Informacje o szkoleniu
W trakcie szkolenia uczestnikowi przybliżone zostają zagadnienia związane z Continuous Delivery i Continuous Integration. Poruszane są tematy związane z budową oraz wdrażaniem aplikacji na serwery. Szkolenie ma formę warsztatów i jest prowadzone z wykorzystaniem platformy Azure DevOps, na przykładzie aplikacji .NET Core.
Co należy wiedzieć przed szkoleniem?
Wymagana jest podstawowa wiedza programistyczna związana z budową aplikacji oraz fundamentalna wiedza związana z administracją serwerów.
Zagadnienia
1.Co to jest Continous Delivery i Continuous Integration, po co wymyślono CI/CD?
2.Przegląd narzędzi CD/CI
3.Konfiguracja Azure DevOps
4.Budowa aplikacji .NET (Azure DevOps)
5.Release aplikacji .NET (Azure DevOps)
6.Bezpieczeństwo w Azure DevOps
7.Integracja z innymi narzędziami
8.Wstęp do testowania i analizy kodu – Sonarqube, unit -tests
CI/CD w oparciu o Jenkins
Czas trwania – 3 dni
Poziom podstawowy
Szkolenie dostępne jest zarówno w formie zdalnej jak i stacjonarnej.
Informacje o szkoleniu
Szkolenie prowadzone jest z wykorzystaniem narzędzia Jenkins z naciskiem na praktykę. Każdy uczestnik otrzymuje instrukcję z opisem wykonywanych ćwiczeń. W trakcie szkolenia uczestnikowi przybliżone zostają zagadnienia związane z Continuous Integration, Continuous Delivery i Continuous Deployment. Poruszane są tematy związane z budową oraz wdrażaniem aplikacji na serwery z wykorzystaniem najlepszych praktyk Pipeline as Code, które umożliwiają powtarzalne wykonywanie operacji. Uczestnicy poznają najlepsze praktyki związane z konfiguracją i utrzymywaniem serwerów Jenkins. Umożliwia to zarządzanie ogromną ilością podobnych środowisk z nakładem minimalnej ilości pracy.
Parę słów o Jenkinsie
1. W pełni darmowe narzędzie na licencji Open Source
2. Posiada największą liczbę wtyczek i integracji
3. Jedno z najstarszych narzędzi, posiada ogromną społeczność użytkowników
Forma szkolenia – Warsztaty
95% czasu szkolenia poświęcone jest wykonywanie zadań podczas workshop-ów.
5 % – czasu szkolenia to teoretyczne wprowadzenie do wykonywanych labów.
Co należy wiedzieć przed szkoleniem?
Wymagana jest znajomość podstaw pracy z terminalem Linux/Unix, Docker Engine.
Zagadnienia
1.Wprowadzenie teoretyczne do CI/CD
2. Przegląd innych narzędzi CI/CD i porównanie z Jenkins
Gitlab
Github
Bamboo
3. Wprowadzenie do Jenkins, narzędzia wspomagającego CI/CD
Czym jest pipeline i podejście pipelines as code
Integracja z narzędziami wspomagającymi – SonarQube, Artifactory
Wprowadzenie do Jenkins Configuration as Code
4. Ćwiczenia praktyczne z Jenkins
Instalacja i konfiguracja na systemie Debian (automatyzacja)
Jenkins Configuration as Code
Instalacja monitoringu
Jenkins Pipelines – wprowadzenie i ćwiczenia praktyczne
Integracja z Github
Jenkins Agent i Docker
Jenkins i jego rozszerzenia
Job status i badge status
Coverage reports, Broken pipelines
Jenkins – uwierzytelnianie i autoryzacja
Jenkins – przechowywanie haseł (secrets)
Jenkins – audit logs
Jenkins – artefakty
Jenkins – pipeline gates
Jenkins – promoted build
Jenkins – wykorzystywanie dokumentacji do tworzenie Pipelines
Jenkins – globalne narzędzia do konfiguracji
Jenkins Job DSL – wprowadzenie i ćwiczenia praktyczne
Jenkins Pipelines – wprowadzenie i ćwiczenia praktyczne
5.Testowania i analizy kodu za pomocą Jenkins i Sonarqube – ćwiczenia praktyczne
6. Budowa aplikacji w Python – ćwiczenia praktyczne
7. Release aplikacji w Python – ćwiczenia praktyczne
8. Deployment aplikacji za pomocą Ansible
Artefakt
Kontener z aplikacją
Jakie korzyści daje szkolenie?
Uczestnik po zakończeniu szkolenia nabędzie następujące umiejętności:
1. Instalacji serwera Jenkins
2. Sposobów podłączania agentów Jenkinsa
3. Konfiguracji globalnych narzędzi (Git, Maven itp.)
4. Rozszerzanie podstawowych funkcjonalności Jenkinsa z użyciem wtyczek i bibliotek
5. Tworzenie projektów typu Freestyle, Pipeline, Multi-branch Pipeline
6. Umiejętność tworzenia Pipeline’ów za pomocą kodu
7. Tworzenie kompleksowego Pipeline’u do ciągłej integracji oprogramowania (CI/CD)
8. Wdrażanie aplikacji na różnych środowiskach
9. Integracji Jenkins z serwerem Git na przykładzie Github
10. Integracji Jenkins z serweremi Artifactory i Sonarqube
11. Automatycznej konfiguracji Jenkins jako IaC
12. Automatycznej konfiguracji projektów w Jenkins jako IaC
Wymagania sprzętowe i środowiskowe
Każdy z uczestników powinien posiadać:
1. Komputer z klientem SSH z otwartym dostępem do Internetu.
Uczestnicy wykonują zadania na wirtualnych maszynach w chmurze publicznej. Poniższe porty muszą być otwarte na firewallu:
SSH (22/TCP)
HTTP (80/TCP)
HTTPS (443/TCP)
Wszystkie powyżej 1024/TCP
2. Zalecany drugi monitor.
3. Znajomość podstaw pracy z terminalem Linux/Unix, Docker Engine.
4. Klient WebEx https://www.webex.com/downloads.html
Jesteś zainteresowany szkoleniem?
Kliknij poniżej
KONTAKT
CI/CD w oparciu o Docker engine i Ansible
Czas trwania – 3 dni
Poziom podstawowy
Informacje o szkoleniu
W trakcie szkolenia uczestnikowi przybliżone zostają zagadnienia związane ze sposobami budowania aplikacji w oparciu o kontenery i ich deployment (na różnych środowiskach włącznie z produkcyjnym) oraz ich późniejsze skalowanie. Szkolenie ma formę warsztatów i jest prowadzone z wykorzystaniem narzędzi Ansible, Docker, Jenkins i system Ubuntu (Linux).
Ćwiczenia są prowadzone w oparciu o przykładową aplikacją napisaną w języku Python. Każdy z uczestników na czas szkolenia dostaje swoją infrastrukturę wirtualną w chmurze publicznej składającą się z kilku serwerów Ubuntu na których są wykonywane ćwiczenia.
Dla kogo jest przeznaczone szkolenie?
Dla osób budujących procesy CI/CD,
dla programistów,
dla innym osób zainteresowanych praktycznym wykorzystywaniem przedstawionych narzędzi.
Co należy wiedzieć przed szkoleniem?
Wymagana jest podstawowa znajomość:
systemu kontroli wersji Git,
systemów Linux,
sieci komputerowych,
klienta SSH,
języka Python i budowy aplikacji webowych.
Zagadnienia
I dzień
1. Wprowadzenie teoretyczne do CI/CD
2. Wprowadzenie do Docker
Wstęp teoretyczny
Ćwiczenia praktyczne
a) Podstawowe operacje na kontenerach
b) Docker i storage
c) Docker i sieci
d) Budowanie obrazów Docker i dzielenie się nimi
e) Docker i logi aplikacji uruchomiomych w kontenerach oraz opcje ich agregacji na przykładzie Elastic (ELK) Stack
f) Docker-Compose
II dzień
1 Wprowadzenie do Ansible
Wstęp teoretyczny
Ćwiczenia praktyczne
a) sposoby instalacji.
b) wykonywanie komend ad-hoc.
c) pisanie playbook-ów.
d) szyfrowanie haseł i innych ważnych danych.
e) tworzenie i testowanie ról.
III dzień
1. Omówienie strategii deployment-u aplikacji.
2. Omówienie konfiguracji load balancer-a na przykładzie HAproxy.
3. Ćwiczenia na przykładzie deployment-u aplikacji składającej się z Load Balancer-a i kilku mikroserwisów (fontend, backend, baza danych).
4. Budowa CI/CD na omówionym przykładzie w oparciu o Jenkins.
Wymagania sprzętowe
Każdy z uczestników powinien posiadać.
1. Laptop z systemem:
Windows 10
MacOS
Linux np Ubuntu który posiada wsparcie dla Docker CE.
2. Zainstalowany klient OpenSSH
Jesteś zainteresowany szkoleniem?
Kliknij poniżej
KONTAKT
Kubernetes – podstawy
Czas trwania – 2 dni
Informacje o szkoleniu
Szkolenie porusza zagadnienia związane z wymaganiami stawianymi przed platformami orkiestracyjnymi wraz z ich realizacją na przykładzie środowiska Docker Kubernetes. Omawiane są: wysoka dostępność usług (High Availability – HA), automatyzacja, a także równoważenie obciążenia wraz z automatycznym wykrywaniem i rejestracją usług. Szkolenie ma formę warsztatową.
Co należy wiedzieć przed szkoleniem?
Wymagana jest wiedza związana z platformą Docker oraz systemami Linux/Unix. Uczestnik powinien być zaznajomiony na poziomie elementarnym z systemami kontroli wersji opartych o git oraz z zagadnieniami dotyczącymi sieci TCP/IP.
Zagadnienia
1.Co to jest Kubernetes
2.Infrastruktura k8s
3.Możliwości instalacji
4.Zarządzanie k8s
5.Podstawowe obiekty – Deployment, Pod, ReplicaSet, Secrets, ConfigMaps
6.Zaawansowane obiekty Kubernetes
7.Praktyczna praca z obiektami na podstawie przykładowej aplikacji
8.Wprowadzenie do monitoringu oraz alertowania
9.Helm – pakiet manager dla k8s
Kubernetes dla Developerów
Czas trwania – 2 dni
Informacje o szkoleniu
Szkolenie przeznaczone dla programistów interesujących się wdrażaniem aplikacji opartych o mikroserwisy. Poruszane są tematy związane z uruchomieniem aplikacji na klastrze Kubernetes wraz z praktycznymi przykładami. Szkolenie ma formę warsztatów.
Dla kogo jest przeznaczone szkolenie?
Dla programistów,
dla Inżynierów DevOps.
Co należy wiedzieć przed szkoleniem?
Należy posiadać podstawową wiedzę programistyczną oraz podstawy technologii Docker.
Umiejętności po szkoleniu:
Uczestnik będzie potrafił uruchomić podstawową aplikacją na klastrze Kubernetes w oparciu o najlepsze praktyki.
Zagadnienia
1.Co to jest Kubernetes
2.Infrastruktura k8s
3.Możliwości instalacji
4.Zarządzanie k8s
5.Podstawowe obiekty – Deployment, Pod, ReplicaSet, Secrets, ConfigMaps
6.Ingress – wystawienie aplikacji na świat
7.Storage, Persistent Volume – zarządzanie danymi w k8s
8.Praktyczna praca z obiektami na podstawie przykładowej aplikacji.
DevOpsowe kompendium dla początkujących- Zwinne dostarczanie aplikacji
Czas trwania – 2 dni
Opis szkolenia
Szkolenie porusza najważniejsze aspekty związane z metodyką DevOps. Omawia najpopularniejsze narzędzia używane na co dzień przez zespoły DevOps do zwinnego dostarczenia aplikacji. Daje obraz czym jest Devops w ujęciu filozoficznym. Kurs jest wstępem do świata DevOps, stąd ma formę teoretyczną z przykładami z życia wziętymi. Osoba prowadząca kurs jest przede wszystkim praktykiem, na co dzień pracującym w metodyce Devopsowej, mająca doświadczenie trenerskie. Każdy z poruszonych modułów może zostać rozwinięty w formie odrębnego warsztatu na dodatkowym kursie.
Dla kogo jest przeznaczone szkolenie?
Dla testerów,
dla developerów,
dla programistów,
dla administratorów, którzy chcą rozpocząć przygodę z zagadnieniami DevOps.
Zagadnienia
1. Omówienie metodyki DevOps?
– Rozwój projektu z punktu widzenia developera.
– Rozwój projektu z punktu widzenia administratora.
– Rozwój projektu z punktu widzenia zespołu DevOps.
2. Omówienie narzędzi DevOps
– Continuous Integration/Continuous Deployment.
– Mikroserwisy, kontenery Linux.
– System kontroli wersji: Git, Mercurial, SVN.
– Automatyzacji infrastruktury i zarządzanie za pomocą kodu (IaC):
– narzędzia do automatyzacji konfiguracji systemów: Ansible, SaltStack, Puppet, Chef.
– narzędzia do automatyzacji zarządzania infrastrukturą: AWS CloufFormation, Terraform.
– Modele pracy z Git-em
3. Zarządzanie oraz konfiguracja elementów środowiska IT przy użyciu narzędzi DevOps do automatyzacji
– Wprowadzenie.
– Omówienie Ansible Pull vs Push.
– Omówienie: idempotencja, moduły, inventory, tasks, polecenia ad-hoc.
– Podstawy w Ansible: Playbook, YAML, moduly, zmienne, role.
4. Mikroserwisy bazujące na technologii Docker w procesach DevOps
– Czym jest Docker?
– Architektura oraz komponenty Docker.
– Budowanie obrazów – Dockerfile i uruchamianie na przykładzie docker-compose.
– Omówienie sieci i wolumenów w Docker.
– Zbieranie logów z aplikacji.
– Omówienie koncepcji „The twelve-factor App”.
5. Pipeline DevOps wraz z powiązanymi technologiami oraz narzędziami
– CI/CD na przykładzie Jenkins Pipelines.
6. Porównanie metodyki SRE i DevOps
7. Kubernetes, a DeVops – wprowadzenie
8. Cloud Services w usługach DevOps na podstawie AWS
DevOps – zwinna i skuteczna metoda wdrażania oprogramowania
Czas trwania – 2 dni
Informacje o szkoleniu
Szkolenie dostarcza uczestnikowi podstawową wiedzę z zakresu tematyki DevOps jak również zapewnia jej większe zrozumienie. Podczas treningu kursant zostaje zaznajomiony z rzeczywistymi przykładami wdrożeń. Ma sposobność uczestnictwa w mini-warsztatach, na których są przedstawione pokazowe wdrożenia oprogramowania.
Dla kogo jest przeznaczone szkolenie?
Dla osób z obszarów developmentu, utrzymania oraz zarządzania usługami IT,
dla managerów,
dla kadry zarządzającej,
dla zainteresowanych wdrożeniem metodologii DevOps w firmach/organizacjach.
Jakie wymagane umiejętności należy posiadać aby przystąpić do szkolenia?
Nie ma sprecyzowanych wymagań wstępnych, pomocna będzie znajomość zagadnień związanych z Agile, Lean.
Zagadnienia
Dzień I
1.Czym jest DevOps?
2.Koncepcje i zasady DevOps
3.Zalety DevOps
4.DevOps, a metodologie Lean, Agile
Dzień II
1.Przykład wdrażania oprogramowania metodą DevOps z wykorzystaniem popularnych narzędzi:
2.Jira – definicja i zakres prac
3.Continuous integration, Continuous Delivery (CI/CD)
4.Testy aplikacyjne
5.Automatyzacja (infrastrutktura, build i release, testy)
6.Monitoring aplikacji
7.Public Cloud (na podstawie Azure)
Puppet dla początkujących
Czas trwania – 3 dni/4 dni
Informacje o szkoleniu
Szkolenie wprowadza początkujących do podstaw związanych z Puppet, którzy są zainteresowani wdrożeniem i rozwijaniem konfiguracji systemów w oparciu o środowisko Puppet Master-Agent. Poruszane tematy są związane:
z architekturą systemu Puppet,
z instalacją i konfiguracją Puppet Agent i Puppet Master,
pisaniem własnych modułów z wykorzystaniem Puppet Resources, Classes, Defines, Manifests, Facts.
Osoby biorące udział w kursie mają okazję zainstalować na przygotowanym przez siebie środowisku testowym system Puppet w wersji Open Source w oparciu o architekturę Master-Agent oraz zapoznać się z praktycznym podejściem do automatyzacji infrastruktury.
Forma szkolenia – Warsztaty
95% czasu szkolenia poświęcone jest wykonywanie zadań podczas workshop-ów.
5 % – czasu szkolenia to teoretyczne wprowadzenie do wykonywanych labów.
Dla kogo jest przeznaczone szkolenie?
Dla Administratorów systemów,
dla Inżynierów DevOps.
Co należy wiedzieć przed szkoleniem?
Podstawy administracji serwerami Linux/Unix lub Windows.
Jakie korzyści daje szkolenie?
Uczestnik po zakończeniu szkolenia nabędzie następujących umiejętności:
1.Prawidłowej Instalacji i konfiguracji systemu Puppet we własnej organizacji
2.Uruchomienia Puppet w wersji Open Source w konfiguracji Master-Agent
3.Napisania podstawowej konfiguracji dla swoich systemów Linux/Unix lub Windows
4.Wdrożenia przygotowanej przez siebie konfiguracji na systemy z użyciem Puppet Agent
Zagadnienia
1.Wprowadzenie do Puppet
Opis architektury
Opis PuppetDB, PuppetBoard, Fileserver
2.Wprowadzenie do Puppet Agent
Instalacja i Konfiguracja
Wprowadzenie do Puppet DSL
Manifests
Resources
Classes
Konfiguracja systemu za pomocą Puppet Agent
3.Wprowadzenie do Puppet Master
Instalacja i konfiguracja
Środowiska w Puppet Master (Puppet Environments)
Definicja serwerów (Node definitions)
4.Moduły Puppet (Modules)
Wprowadzenie do Manifests, Classes, Definitions
Tworzenie modułów i wprowadzenie do PDK
Wprowadzenie do Puppet Hiera czyli bazy typu klucz-wartość w Puppet
Przygotowanie konfiguracja obejmująca podstawową konfiguracje grup, użytkowników, instalacji oprogramowania, uruchamianie serwisów
Proste techniki testowanie modułów Puppet
Kolejność wykonywania kodu w modułach
5.Puppet templates czyli sposoby generowania plików konfiguracyjnych
Wprowadzenie Ruby templates ERB
Wprowadzenie Puppet templates EPP
6.Instalacja modułów na Puppet Master
7.Zarządzanie agentami na serwerze Puppet Master
Wymagania sprzętowe
1. Komputer z klientem SSH z otwartym dostępem do Internetu.
2. Uczestnicy wykonuje zadania na wirtualnych maszynach w chmurze publiczne.
3. Poniższe porty muszą być otwarte na firewallu:
SSH (22/TCP)
HTTP (80/TCP)
HTTPS (443/TCP)
wszystkie powyżej 1024/TCP
4. Zalecany drugi monitor.
5. Znajomość podstawy pracy z terminalem Linux/Unix, Docker Engine lub Podman.
6. W zależności od ustaleń: klient WebEx https://www.webex.com/downloads.html lub Zoom https://zoom.us/download
Jesteś zainteresowany szkoleniem?
Kliknij poniżej
KONTAKT
Puppet dla zaawansowanych
Czas trwania – 3 dni/4 dni
Informacje o szkoleniu
Szkolenie omawia zaawansowane zagadnienia związane z praktycznym wykorzystaniem Puppet do automatyzacji rozbudowanych środowisk IT oraz optymalizacji działania systemów w dużych wdrożeniach. Wprowadza w najlepsze techniki związane z utrzymywaniem konfiguracji w oparciu o system kontroli wersji Git oraz w techniki CI/CD.
Dla kogo jest przeznaczone szkolenie?
Dla Administratorów systemów
dla Inżynierów DevOps.
Co należy wiedzieć przed szkoleniem?
Uczestnicy powinni posiadać minimum 1-2 lata doświadczenia w administracji systemami Linux/Unix oraz mieć ukończenie szkolenie „Puppet dla początkujących” lub posiadać minimum półroczne doświadczenie związane z używaniem Puppet we własnej organizacji. Konieczna jest również praktyka w użytkowaniu systemu Git.
Umiejętności po szkoleniu
Uczestnik będzie potrafił uruchomić system Puppet w wersji Open Source który może być wykorzystywany do zarządzania konfiguracją setkami serwerów we własnej organizacji.
Zapozna się z zaawansowanymi funkcjami w PuppetDB, Hiera i Hiera-eyaml oraz będzie potrafił monitorować zarządzane systemy za pomocą PuppetBoard. Uczestnik zapozna się z zaawansowanymi konstrukcjami językowymi, z technikami testowania modułów oraz praktykami ze wdrożeniem CI/CD.
Zagadnienia
1.Skalowalność Puppet
2.Wprowadzenie do PuppetDB
Exported Resources w Puppet
PuppetDB API
3.Grupowanie i klasyfikacjia serwerów (Grouping and classifying nodes)
4.Instalacja i wprowadzenie do PuppetBoard
Wprowadzenie i zastosowanie Puppet Environments
Zastosowanie Puppetfile i R10K
Zastosowanie Hiera i Hiera-eyaml.
Zaawansowanie pisanie modułów Puppet
Najlepsze praktyki
Automatyczne testowanie CI
Automatyczny deployment CD
Zastosowanie Definitions
Zależności wykonywania kodu
Custom Facts and Types
Puppet Forge
5.Wprowadzenie do architektury Roles i Profiles
6.Wprowadzenie do Mcollective
7.Wprowadzenie do Puppet Bolt
Automatyzacja zarządzania systemem Linux z Ansible
Czas trwania – 4 dni
Dla kogo jest przeznaczone szkolenie?
Dla administratorów systemu Linux,
dla administratorów systemu Windows,
dla inżynierów DevOps,
dla inżynierów automatyzacji infrastruktury,
dla inżynierów projektujących systemy.
Co należy wiedzieć przed szkoleniem ?
Bazowa wiedza na temat architektury i zarządzania systemem Linux
Metoda realizacji szkolenia
Wykłady i ćwiczenia praktyczne
Zagadnienia
1.Koncepcje Ansible i instalacja środowiska
2.Wdrażanie Ansible i konfiguracja Ansible do zarządzania hostami i uruchamiania poleceń ad hoc
3.Tworzenie prostego playbook’a Ansible, uruchamianie go, aby zautomatyzować zadania na wielu zarządzanych hostach
4.Zarządzanie zmiennymi i faktami.
5.Tworzenie playbook’ów, które używają zmiennych, aby uprościć zarządzanie playbookiem i faktami jak również powiązanie z konfiguracją zarządzanych hostów.
6.Wdrażanie kontroli zadań i zarządzanie kontrolą zadań, programami obsługi i błędami zadań w Ansible Playbooks.
7.Zarządzanie dużymi projektami i playbooki, które są zoptymalizowane pod kątem większych, bardziej złożonych projektów.
8.Uproszczenie playbooków dzięki rolom, użycie ról Ansible, aby szybciej opracować scenariusze i ponownie wykorzystać kod Ansible.
9.Rozwiązywanie problemów z Ansible. Rozwiązywanie problemów z playbooks i hostami zarządzanymi.
10.Automatyzacja zadań administracyjnych w systemie Linux i automatyzacja typowych zadań administracyjnych w systemie Linux za pomocą Ansible.
Jakie Umiejętności nabywa uczestnik po szkoleniu?
1.Instalacja i konfigurowanie Ansible na stacji roboczej do zarządzania
2.Przygotowanie zarządzanych hostów do automatyzacji
3.Projektowanie Ansible Playbooks, aby zautomatyzować zadania
4.Uruchamianie Playbooks, aby upewnić się, że serwery zostały poprawnie wdrożone i skonfigurowane.
Automatyzacja testów aplikacji z językiem Python dla testerów oprogramowania
Czas trwania – 3 dni
Dzień 1
Podstawy języka Python
1. Programowanie strukturalne – tworzenie wyrażeń – struktury danych – warunki
2. Programowanie funkcyjne – funkcje i procedury – dekoratory
3. Programowanie obiektowe – klasy i instancje- dziedziczenie
4. Obsługa wyjątków
Dzień 2
Podstawy testów automatycznych
1. Przygotowanie środowiska testowego
2. Praca z debuggerem
3. Rodzaje testów automatycznych- jednostkowe- integracyjne- systemowe i akceptacyjne
4. Continuous Integration / Cont. Deployment
5. Wstęp do Selenium- instalacje i konfiguracja webdrivera- podstawowe użycie- selektory
Dzień 3
Selenium – projekt
1. Page Object Model
2. Generowanie raportów
3. Warsztaty – Stworzenie projektu testującego przykładową aplikację
Automatyzacja testów aplikacji z językiem Java dla testerów oprogramowania
Czas trwania – 3 dni
Dzień 1
Podstawy języka Java
1. Wprowadzenie
2. Instalacja niezbędnych narzędzi
3. Typy danych w Javie
4. Klasy i metody – podstawy programowania obiektowego
5. Instrukcje warunkowe i pętle
6. Słowo kluczowe static
7. Koncept programowania obiektowego (dziedziczenie, enkapsulacja, abstrakcja, polimorfizm itp.)
8. Obsługa wyjątków w Javie
9. Zaawansowana Java, API i Java Collections Framework (JCF): interfejsy (listy, zbiory, mapy itp.)
Dzień 2
Podstawy testów automatycznych
1. Przygotowanie środowiska testowego
2. Praca z debuggerem
3. Rodzaje testów automatycznych- jednostkowe- integracyjne- systemowe i akceptacyjne
4. Continuous Integration / Cont. Deployment
5. Wstęp do Selenium- instalacje i konfiguracja webdrivera- podstawowe użycie- selektory
Dzień 3
Selenium – projekt
1. Page Object Model
2. Generowanie raportów
3. Warsztaty – Stworzenie projektu testującego przykładową aplikację
Podstawy Konteneryzacji w Docker i Docker Swarm
Czas trwania – 2 dni
Informacje o szkoleniu
Szkolenie przeznaczone dla programistów, administratorów oraz DevOps-ów interesujących się technologiami opartami o ekosystemy kontenerów. Po szkoleniu uczestnicy będą potrafili budować, uruchamiać oraz zarządzać aplikacjami w kontenerach. Szkolenie ma formę warsztatów.
Dla kogo jest przeznaczone szkolenie?
Dla programistów,
dla administratorów,
dla inżynierów DevOps.
Co należy wiedzieć przed szkoleniem?
Należy posiadać podstawową wiedzę w administrowaniu systemami Linux oraz umiejętność poruszania się po dowolnym CommandLine (np bash).
Zagadnienia
1.Co to konteneryzacja?
2.Architektura rozwiązania – Docker
3.Podstawowe zagadnienia oraz komendy
4.Sieć i storage
5.Budowa i zarządzanie obrazami
6.Docker Compose
7.Docker Swarm
Tworzenie przepływów CI/CD DevOps przy użyciu Java, Gradle, Maven, Artifactory i Sqitch
Czas trwania – 1 dzień
1. Wprowadzenie
2. Ciągła Integracja/Ciągła Dostawa z Jenkinsem
3. Wprowadzenie do Jenkinsa
4. Przepływy CI/CD z Jenkinsem i Mavenem
5. Przepływy CI/CD z Jenkins. Gradle, Artifactory
6. Zarządzanie Schematami relacyjnych baz danych z Jenkinsa i Sqitcha
7. Operacyjne uwarunkowania Jenkinsa
8. Podsumowanie
9. Ćwiczenia
Azure – usługi dla Developerów
Czas trwania – 2 dni
Informacje o szkoleniu
W trakcie szkolenia uczestnicy poznają usługi związane z wytwarzaniem oprogramowania na podstawie Azure Public Cloud.
Zostaną przedstawione możliwości uruchamiania aplikacji z wykorzystaniem najlepszych praktyk pod względem użytkowania oraz bezpieczeństwa.
W trakcie szkolenia odbędą się również praktyczne warsztaty, na których będzie uruchamiana przykładowa aplikacja.
Dla kogo jest przeznaczone szkolenie?
Dla programistów,
dla administratorów IT,
dla DevOps inżynierów interesujących się public cloud i chcących się rozwijać w tej dziedzinie.
Co należy wiedzieć przed szkoleniem?
Podstawowa wiedza związania z programowaniem oraz z możliwościami uruchamiania aplikacji na serwerach.
Zagadnienia
1.Przegląd usług związanych w wytwarzaniem oprogramowania
2.Porównanie możliwości hostowania aplikacji
3.Korzyści wynikające z używania Public Cloud
4.Warsztaty: Uruchomienie przykładowej aplikacji na Azure Cloud
Konfiguracja CI/CD – Azure DevOps
Tworzenie i konfiguracja Azure AppService
Konfiguracja Azure Container Registry
Wstęp do Azure Kubernetes Services
Monitoring aplikacji w Azure Cloud
Wprowadzenie do Argo CD - narzędzie Continuous Delivery do dostarczania aplikacji w klastrach Kubernetes
Czas trwania – 2 dni
Informacje o szkoleniu
W trakcie szkolenia uczestnicy zapoznają się z narzędziem Argo CD do ciągłego dostarczania aplikacji w klastrach Kubernetes.
Zajęcia mają formę warsztatów, których celem jest między innymi przedstawienie instalacji i konfiguracji omawianego narzędzia
w oparciu o klastry Kubernetes. Uczestnikom zostają pokazane sposoby najlepszych praktyk stosowanych z tym narzędziem.
Każdy z nich na czas trwania szkolenia dostaje swoją infrastrukturę wirtualną w chmurze publicznej, na których są wykonywane ćwiczenia.
Dla kogo jest przeznaczone szkolenie?
Dla programistów,
dla inżynierów DevOps i SysOps, którzy są zainteresowani stosowaniem Argo CD do ciągłego dostarczania aplikacji w Kubernetes.
Co należy wiedzieć przed szkoleniem?
Wymagana jest podstawowa znajomość:
systemów Linux,
platformy Kubernetes,
podstawy konteneryzacji z wykorzystaniem narzędzia Docker,
SSH – wszystkie ćwiczenia wykonywane są na zdalnych serwerach w chmurze publicznej poprzez klienta SSH.
Zagadnienia
1.Wprowadzenie do GitOps (teoria)
2.Wprowadzenie do Argo CD (teoria)
3.Omówienie architektury Argo CD (teoria)
4.Metody instalacji (teoria)
5.Instalacja Argo CD (praktyka)
6.Zapoznanie się panelem kontrolnym Argo CD (praktyka)
7.Zapoznanie się narzędziem konsolowym Argo CD CLI (praktyka)
8.Tworzenie obiektów “Application” Argo CD z wykorzystaniem
a.panelu kontrolnego
b.narzędzia konsolowego (praktyka)
9.Kontrola dostępu w Argo CD (teoria i praktyka)
10.Wprowadzenie do Helm (teoria i praktyka)
11.Instalacji aplikacji w formie pakietów Helm za pomocą Argo CD (praktyka)
12.Wprowadzenie do Kustomize (teoria i praktyka)
13.Instalacja aplikacji z definiowanych w Kustomize za pomocą Argo CD (praktyka)
14.Wprowadzenie do projektów w Argo CD (teoria)
15.Tworzenie projektów w Argo CD (praktyka)
16.Wykorzystywanie prywatnych repozytoriów Git w Argo CD (teoria i praktyka)
17.Wykorzystywanie prywatnych repozytoriów Helm (teoria i praktyka)
18.Wprowadzenie do polityk synchronizowania konfiguracji aplikacji (teoria i praktyka)
19.Omówienie różnych strategii śledzenia konfiguracji aplikacji w ArgoCD (teoria i praktyka)
20.Wprowadzenie do ‘Sync Waves’ (teoria i praktyka)
21.Wprowadzenie do ‘Hooks’ (teoria i praktyka)
22.Definiowanie zdalnych klastrów Kubernetes w Argo CD (praktyka)
23.Wprowadzenie do “ApplicationSet” (teoria i praktyka)
24.Wprowadzenie do “Generators” (teoria i praktyka)
25.Omówienie najlepszych praktyk w Argo CD:
a.struktura repozytoriów Git
b.definiowanie struktury aplikacji
Wymagania sprzętowe:
Każdy z uczestników powinien posiadać Laptop z systemem:
Windows 10, zalecane środowisko Windows Subsystem for Linux np. z Ubuntu,
MacOS,
Linux np. Ubuntu,
Zalecany jest zewnętrzny monitor,
Zainstalowany klient OpenSSH, Zoom.us,
Zainstalowany WSL na Windows.
Wprowadzenie do Tekton - rozwiązanie Cloud Native do obsługi CI/CD w klastrach Kubernetes.
Czas trwania – 2 dni
Informacje o szkoleniu
Szkolenie prowadzone jest z wykorzystaniem narzędzia Tekton i klastrów Kubernetes z naciskiem na praktykę. Każdy uczestnik otrzymuje instrukcję z opisem wykonywanych ćwiczeń.
W trakcie szkolenia uczestnikowi przybliżone zostają zagadnienia związane z Continuous Integration, Continuous Delivery i Continuous Deployment.
Poruszane są tematy związane z budową oraz wdrażaniem aplikacji na klastry Kubernetes, które umożliwiają powtarzalne wykonywanie operacji z wykorzystaniem Tekton.
Dla kogo jest przeznaczone szkolenie?
Dla programistów,
dla inżynierów DevOps i SysOps, którzy są zainteresowani stosowaniem Tekton jako narzędzia CI/CD do dostarczania aplikacji w Kubernetes.
Co należy wiedzieć przed szkoleniem?
Wymagana jest podstawowa znajomość:
systemów Linux,
platformy Kubernetes,
podstawy konteneryzacji z wykorzystaniem narzędzia Docker,
SSH – wszystkie ćwiczenia wykonywane są na zdalnych serwerach w chmurze publicznej poprzez klienta SSH.
Zagadnienia
1.Wprowadzenie teoretyczne do CI/CD (teoria).2.Przegląd innych narzędzi CI/CD i porównanie z Tekton.
2.Przegląd innych narzędzi CI/CD i porównanie z Tekton
Gitlab
Github
Bamboo
Jenkins
3.Omówienie ‘pipeline’ i ‘podejście pipelines as code’.
4.Wprowadzenie do Tekton i omówienie.
Tasks
Pipelines
Triggers
Tekton CLI
Tekton Dashboard
Tekton Hub
Tekton Operator..
5.Przygotowanie środowiska developer-a.
6.Zapoznanie się ze obiektami wykorzystywanymi do budowania Tekton Pipelines.
Tworzenie i uruchamianie ‘Tasks’,
Tworzenie i uruchamiania ‘Pipeline’,
Praca z ‘Triggers’
Definiowanie i praca z ‘Workspace’,
Przeglądanie logów,
Konfiguracja uwierzytelniania i zabezpieczenia dostępu do Tekton.
Zabezpieczanie Pipelines.
Rozwiązywanie problemów z Tekton.
Wymagania sprzętowe:
Każdy z uczestników powinien posiadać Laptop z systemem:
Windows 10, zalecane środowisko Windows Subsystem for Linux np. z Ubuntu.
MacOS
Linux np. Ubuntu
Zalecany zewnętrzny monitor
Zainstalowany klient OpenSSH, Zoom.us
Zainstalowany WSL na Windows