#cicd pipeline
Explore tagged Tumblr posts
gleecus-techlabs-blogs · 2 months ago
Text
Tumblr media
The CI/CD pipeline is a foundational element of modern software development that plays a vital role in ensuring rapid time-to-market and seamless delivery of high-quality software products, especially in today's fast-paced and highly competitive landscape. By automating various stages of development, testing, and deployment, a CI/CD pipeline helps organizations continuously integrate new code changes, conduct thorough testing, and deliver updates more efficiently, all while minimizing risks and maintaining software reliability.
To dive deeper into how CI/CD pipelines can transform your development process, explore the essential components of a successful CI/CD pipeline in this detailed guide.
0 notes
bdccglobal · 2 years ago
Text
DevOps is a buzzword that keeps getting more and more popular. But what does it actually mean?
In this post, we'll examine how Data Analytics can help you revolutionize your CI CD pipelines.
DevOps is a buzzword that keeps getting more and more popular. But what does it actually mean?
In this post, we'll examine how Data Analytics can help you revolutionize your CI CD pipelines.
3 notes · View notes
emmaameliamiaava · 2 months ago
Text
Tumblr media
Streamline development with OneTab’s AI CI/CD platform. Leverage powerful CI/CD tools, dashboards, and continuous integration testing for iOS. Boost DevOps efficiency with cutting-edge CI/CD pipeline tools and software development solutions.
0 notes
techdirectarchive · 8 months ago
Text
How to connect GitHub and Build a CI/CD Pipeline with Vercel
Gone are the days when it became difficult to deploy your code for real-time changes. The continuous integration and continuous deployment process has put a stop to the previous archaic way of deployment. We now have several platforms that you can use on the bounce to achieve this task easily. One of these platforms is Vercel which can be used to deploy several applications fast. You do not need…
Tumblr media
View On WordPress
0 notes
automationqa · 10 months ago
Text
Elevate your CI pipelines with Playwright integration!
Learn how to streamline testing processes and ensure seamless performance with this powerful tool.
0 notes
hybridappbuilder · 10 months ago
Text
Tumblr media
Ready to take your development process to the next level in 2024? Explore the top 20 CI/CD pipeline tools for mastering seamless development.
0 notes
sylvanas-girlkisser · 1 year ago
Text
Said with the exact same intonation as Emil's dad at the start of "Hujedamej sånt barn han var"
DEEEEEEEVOPS!
1 note · View note
ibarrau · 2 years ago
Text
[SimplePBI][CD] Auto Deploy informes de PowerBi con Azure Devops Pipelines
CI/CD, DataOps, Devops y muchos otros nombres han recorrido las redes para referirse al proceso más continuo y automático de deploy. Hoy luego de tanto tiempo de dos herramientas como Azure Devops y PowerBi existen muchos posts y artículos que nos hablan de esto.
¿Qué diferencia este artículo de otro? que haremos el deploy continuo con SimplePBI (librería de python para usar la PowerBi Rest API) dentro de Azure Devops. Solo prácticas de CD. Luego compartiré pensamientos sobre CI. Para esto nos acompañaremos de un repositorio Git en Azure Devops. 
No se si llamarle algo “Ops” o simplemente CD PowerBi. Asique sin más charla que dar seguí leyendo si te interesa este mix de temas.
Si hay algo de lo que estoy seguro sobre todo esto de Ops, CI o CD es que tiene un origen y base en software que consiste en facilitar la experiencia del desarrollador. Con ese objetivo vamos a mantener la metodología de un post anterior. El desarrollador no necesita saber más nada. Todo lo siguiente lo configuraría un admin o persona que se dedique a “Ops”.
NOTA: Antes de iniciar aclaro que para que funcione la metodología anterior vamos a quitar el “tracking” del archivo y mantener unicamente el lock. Debemos quitarlo puesto que modifica la metadata guardada en gitattributes y le impide a la API de PowerBi importar el informe. Código:  git lfs untrack "Folder/File_name.pbix" 
Proceso
Intentando simular metodologías de desarrollo de software es que vamos a plantear este artículo. Cabe aclarar que funcionaría en tradicionales esquemas que siguen el hilo de “Origenes -> Power Bi Desktop -> Power Bi Service”.  Nuestro enfoque aquí esta centrado en que los desarrolladores no tengan contacto con Power Bi Service. Su herramienta de desarrollo Desktop y Git serían la diaria. De este modo solo deben preocuparse por tomar la última versión desarrollada, efectuar modificaciones bloqueando el archivo y devolverlo al repositorio modificado y desbloqueado.
La responsabilidad del profesional Ops será la de asegurar que esos desarrollos publicados se disponibilicen en el servicio de PowerBi con flujos automáticos. Con este propósito, y aprovechando nuestro repositorio, vamos a utilizar la herramienta de Azure Devops Pipelines. Para tener acceso a los procesamientos paralelos que nos permiten ejecutar el pipeline, será necesario llenar una encuesta especificada en la documentación de Microsoft como nueva política. Forms y doc para más info en el siguiente link: https://learn.microsoft.com/en-us/azure/devops/pipelines/licensing/concurrent-jobs?view=azure-devops&tabs=ms-hosted
Si bien existen muchas formas y procesos de generar deploys automáticos, la que vamos a generar es la siguiente:
Tumblr media
Nos vamos a concentar en importar archivos de PowerBi Desktop ni bien hayan sido pusheados al repositorio. Nuestro enfoque consiste en tener un Pipeline por Área de Trabajo, lo que llevaría a un archivo .yml por area de trabajo. Para mejorar la consistencia de nuestros desarrollos les recomiendo ordenar las carpetas para que coincidan con las areas de trabajo, datasets/reportes o ambientes. Por ejemplo:
Tumblr media
De ese modo podríamos controlar ambientes, shared datasets o simplemente informes con el dataset. Cada quien conoce sus desarrollos para aplicar la complejidad deseada. Vamos a ver el ejemplo con un solo ambiente que tiene informes en areas de trabajo sin separación de shared datasets.
Configuración
Para iniciarnos en este camino abrimos dev.azure.com y creamos un proyecto. El proyecto trae muchos componentes. De momento a nosotros nos interesan dos. Repos y Pipelines. Asumiendo que saben de lo que hablo y ya tienen un repositorio en esta tecnología o Github, procedemos a crear el pipeline eligiendo el repo:
Tumblr media
Luego nos preguntará si tenemos una acción concreta de creación incial para nuestro archivo yaml (archivos de configuración de pipelines que orientan el proceso). Podemos elegir iniciar en blanco e ir completando o descarguen el código que veremos en el artículo, ponganlo en el repositorio y creen el pipeline a partir de un archivo existente
Tumblr media
Ahora si tendremos nuestro archivo yml en el repositorio listo para modificarlo. Veamos como hacemos la configuración.
Tumblr media
Enlace de github del archivo.
Nuestro pequeño pipeline cuenta con una serie de pasos.
Trigger
Variables
Pool
Steps
NOTA: Estos son un mínimo viable para correr una automatización. Si desean leer más y conocer mayor profundidad puede adentrarse en la documentación de microsoft: https://learn.microsoft.com/es-es/azure/devops/pipelines/yaml-schema/?view=azure-pipelines
Trigger nos mencionará en que parte del repositorio y sobre que branch tiene que prestar atención. En nuestro caso dijimos cualquier branch del path con carpeta “Workspace_Name” y al modificar cualquier archivo PBIX de dicha carpeta. Eso significa que al realizar un commit y push de un archivo de Power Bi Desktop dentro de esa carpeta, se ejecutará el pipeline.
Variables nos permite definir un texto que podremos reutilizar más adelante. En este caso el path de la carpeta. Si bien es una sola carpeta, la práctica de la variable puede ser útil si queremos usar paths más largos. IMPORTANTE: los nombres de carpetas en la variable path no pueden contener espacios dado que la captura de python posterior los reconoce como argumentos separados. Recomiendo usar “_” en lugar de espacios.
Pool viene por defecto y es el trasfondo que correrá el pipeline. Recomiendo dejarlo en ubuntu-latest.
Steps aquí estan los pasos ejecutables de nuestro pipeline. La plataforma nos permite ayudarnos a escribir esta parte cuando elegimos basarnos de la ayuda del wizard. En este caso podemos basarnos en lo que proveemos en ladataweb. Hablemos más de estos pasos.
Detalle de Steps
Primero haremos la instalación de la librería de Python que nos permite utilizar la Power Bi Rest API de manera sencilla en el paso Script.
El paso powershell puesto que nos permite jugar con una consola directa sobre el repositorio. Aqui aprovecharemos para ejecutar un comando git que nos informe cuales fueron los últimos archivos afectados entre el commit anteriores y el actual. Tengamos en cuenta que para poder realizar esta comparación necesitamos cambiar el shallow fetch de nuestro repositorio. Esto significa la memoria de cambio reciente que normalmente viene resguardando 1 commit “más reciente”. Para realizar este cambio necesitamos guardar el pipeline. Luego lo editamos nuevamente y nos dirigimos a triggers:
Tumblr media
Una vez allí en la pestaña Yaml podremos encontrar la siguiente opción que igualaremos a 3 como el mínimo necesario para la comparativa.
Tumblr media
Esta operación también se puede realizar con un Bach de Git local, pero este modo me parece más simple y visual. Para más información pueden leer aqui: https://learn.microsoft.com/es-es/azure/devops/pipelines/repos/azure-repos-git?view=azure-devops&tabs=yaml#shallow-fetch
El paso bash es simplemente para mostrarnos en la consola los archivos que reconoció el script y estan listos para pasar entre pasos.
El paso crítico es Task que llamará a un python script. Para ser más ordenado vamos a llamar a un archivo en el repositorio que nos permita leer un código que cambie con unos parámetros que envía el pipeline para no estar reescribiendolo en cada pipeline de cada workspace/carpeta. Aqui completamos que en script source del file path definido podemos encontrar el script path hasta el archivo puntual que usuará los siguientes tres argumentos. La lista de argumentos refiere al path de los archivos pbix, el id del workspace en donde publicaremos y los archivos que se modificaron según el último commit. Cierra definiendo unas variables de entorno para garantizar la seguridad del script evitando la exposición de la autenticación de la API. En el menú superior derecho veremos la posibilidad de agregar variables:
Tumblr media
Sugiero mantener oculto el secret del cliente y visible el id del cliente. Visible este segundo para reconocer con que App Registrada de Azure AD nos estamos conectado a usar la Power Bi Rest API.
Ya definido nuestro Pipeline creemos el script de python que hará la operación de publicar el archivo. En nuestro script lo dejé en la Raíz del repositorio $(System.DefaultWorkingDirectory)/Deploy-PbiReport.py para reutilizarlo en los pipelines de las carpetas/workspaces. Veamos el script
Tumblr media
Enlace de github del archivo.
Primero importaremos simplepbi y otras dos librerías. OS para reconocer las variables del entorno y SYS para recibir argumentos.
Iniciarmos recibiendo los argumentos de pipeline con sys.argv en el orden correspondiente. Como la recepción de python lee los argumentos separados por espacios como distintos, vamos a asumir que el parámetro 3 o más se unan separados por espacios (puesto que llegaron como argumentos separados. Luego tomamos la lista de archivos en cadena de texto para construir una lista de python que nos permita recorrerla. En este proceso aprovecharemos para quitar archivos modificados en el commit que no pertenezcan a la carpeta/workspace deseada y sean de extensión “.pbix”. Leemos las variables de entorno para loguear nuestro Power Bi Rest API y todo lo siguiente es mágia de SimplePBI. Pedimos el token para nuestra operaciones, hacemos un for de archivos a importar y realizamos la importación con cuidados de capturas de excepciones y condiciones. Todos los prints nos ayudarán a ver los mensajes al termino de la ejecución para reconocer alguna eventualidad. Esto apunta a no cortar si uno de los archivos falla en publicar no corte al resto. Sino que seguirá y al finalizar podremos lanzar la excepción para que falle el pipeline general a pesar que tal vez corrieran 4/5. Por supuesto que esta decisión podría cambiarse a que si uno falla ninguno continue, o que siga pero al final lanzar una excepción 
NOTA: Claro que si es la primera vez que colocamos el archivo.pbix en el repositorio no bastará solo con la importación automática. Será necesario ir a ingresar las credenciales para las actualizaciones manualmente. De momento eso no es posible hacerlo automáticamente.
Para ejecutar la prueba solo bastaría con modificar un archivo .pbix dentro de la carpeta del repo, commit y push. Ese debería ejecutar la acción y publicar el archivo.
De ese modo el desarrollador solo se enfoca en desarrollar con Power Bi Desktop de manera apropiada contra un repositorio y nada más. Un profesional Ops y Administrador serían quienes tendrían licencias PRO que administren el entorno de Áreas de trabajo, apps y distribución de audiencias y permisos.
Demo final commiteando con visual studio code:
Tumblr media
Conclusión
Estas posibilidades llevan no solo a buenas prácticas en desarrollo sino también a mantener una linea de desarrolladores que no necesitarían licencias pro a menos que querramos que tengan más responsabilidades en el servicio.
Todo este ejemplo puede expandirse mucho más. Podríamos desarrollar los informes con Parametros para apuntar a distintas bases de datos y tener ambientes de desarrollo. Los desarrolladores no cambiarían más que agregar parametros y tal vez tener otro branch o repositorio. Los profesionales Ops podrían incorporar en el script de importación el cambio del parámetro en service. Incluso podrían efectuarse prácticas de CI moviendo automáticamente versiones estables de un repo a otro. Hablar de CI no me gusta porque no podemos hacer build ni correr tests, pero dejen volar su imaginación. Cada día las prácticas de desarrollo son más posibles y cercanas en proyectos de datos.
En ese archivo python podríamos usar todo el poder de SimplePBI para ajustar nuestro escenario a la práctica Ops deseada.
0 notes
devopshub2023 · 2 years ago
Text
Hi Everyone,
If you are preparing for AWS Cloud Practitioner Certification then you can utilize my channel to prepare for the exam. Below is the AWS Cloud Certification Practise questions video link for your reference. Happy Learning :)
https://youtu.be/IDSHh-Yqtmk
#aws #awscertified #devopshub
1 note · View note
hiramfleitas · 2 years ago
Text
SQL Database DevOps (2 of 2)
Doing database #DevOps can be very rewarding. In this post I am going to cover how to automatically refresh a lower environment commonly used for testing as part of your release (CD) pipeline. #AzureSQL #SQLServer #powershell #CICD
How to refresh QA automatically by leveraging DevOps Doing database devops can be challenging, but it can also be very rewarding. DevOps is the union of people, process and products to enable continuous delivery of value to your end users. In this post I am going to cover how to automatically refresh a lower environment commonly used for testing as part of your release (CD) pipeline. Well,…
Tumblr media
View On WordPress
2 notes · View notes
jonfazzaro · 13 days ago
Text
"We wanted certified templates with immutable stages to show our compliance and auditing teams that anyone going through this certified template automatically meets compliance gates."
0 notes
gleecus-techlabs-blogs · 1 year ago
Text
Tumblr media
CICD introduces agile practices to the product development culture and brings in interesting features like automated builds, automated testing, continuous integration, and continuous testing. The CICD pipeline is a significant feature of the broader DevOps/ DevSecOps framework.
0 notes
virtualizationhowto · 2 months ago
Text
Docker Prune Automating Cleanup Across Multiple Container Hosts
Docker Prune Automating Cleanup Across Multiple Container Hosts @vexpert #vmwarecommunities #automation #cicd #dockerprune #docker #dockercontainers #pipeline #overlay2 #dockerimages #bestdockercommands #homelab #virtualization
If you run many Docker hosts or multiple hosts in a Swarm cluster, if you are updating and respinning your containers (and you should be), you will have space accumulated on your Docker hosts from things like old container images, container overlay storage, and other things that can add up to a significant amount of storage. There is a helpful built-in command called docker prune that helps to…
0 notes
emmaameliamiaava · 2 months ago
Text
Tumblr media
Optimize your development process with OneTab's AI CI/CD platform. Access powerful CI/CD pipeline tools, DevOps CI/CD integration, continuous integration testing tools, and more for seamless software development.
0 notes
radicaltechnologies141 · 2 months ago
Text
Name : Radical Technologies Software Training Institute in Pune
Address : 4th Floor, Medhi Park, DP Rd, above Bata Showroom, opposite Shiv Sagar Hotel, Harmony Society, Ward No. 8, Wireless Colony, Aundh, Pune, Maharashtra 411007
Phone Number: 080552 23360
Best DevOps Training in Pune | Online
Looking for the best software courses in Pune? Our DevOps training offers 60 hours of hands-on learning, available both online and in classroom settings with flexible weekday and weekend batches. Led by a certified trainer with over 10 years of experience, we provide real-time projects to ensure practical knowledge.
Our program stands out among software training institutes in Pune with placement, offering assistance to help you land jobs. We cover essential DevOps tools including Git (Gitlab & Github), Jenkins, Maven, Nexus/JFrog, SonarQube, Shell Scripting, Docker, CICD pipelines, DSL Groovy, YAML, Ansible, Kubernetes, and more.For anyone searching for a software degree in Pune that includes placement, this makes it perfect.
Enroll today to fast-track your IT career!
Description : "Discover Radical Technologies, a leading software training institute in Pune with placement since 1995. Specializing in job-oriented online training in programming languages, AI, Linux, Hadoop, DevOps, AWS, Oracle, Salesforce, Python, Data Science, Data Analytics, Blockchain, Azure, Sap Hana, Sap Fico, Sap MM, Sap Abap, Gcp & Selenium. We offer global certification &online project-based training, ensuring hands-on experience. As a top-rated IT training institute in Pune with placement, we provide placement-guaranteed training in cutting-edge technology. Whether you seek software Training in Pune, a reputable software testing institute in Pune with placement, or a software course in Pune with placement, join us to master the newest tech trends!"
For getting more details on new batches, kindly fill-up the following form-  https://forms.gle/qGPdz5DajFMkLvrm7 
0 notes
technology-moment · 3 months ago
Text
How Does Containerization Fit Into DevOps?
Containerization plays a crucial role in the DevOps landscape by enhancing collaboration, efficiency, and scalability throughout the software development lifecycle. Here’s how it integrates seamlessly into DevOps practices:
Tumblr media
1. Environment Consistency
Containerization ensures that applications run the same way in development, testing, and production environments. This consistency eliminates the classic "it works on my machine" problem, making it easier for teams to collaborate and reduce friction between development and operations.
2. Faster Deployment
Containers enable rapid deployment cycles. By encapsulating applications and their dependencies into lightweight containers, developers can deploy new features and updates more quickly. This aligns perfectly with DevOps principles, which prioritize speed and agility in delivering software.
3. Scalability and Resource Efficiency
Containers are lightweight and require fewer resources than traditional virtual machines. This allows organizations to scale applications efficiently. With tools like Kubernetes, teams can automate the deployment, scaling, and management of containerized applications, facilitating a more responsive DevOps approach.
4. Microservices Architecture
Containerization is a natural fit for microservices architecture, where applications are broken down into smaller, independently deployable services. This modular approach enhances flexibility and makes it easier to manage complex applications, supporting DevOps practices of continuous integration and continuous delivery (CI/CD).
5. Improved Collaboration
By standardizing the development environment, containers foster better collaboration between development and operations teams. Everyone can work with the same setup, which streamlines communication and reduces the potential for misunderstandings.
6. Enhanced Testing and CI/CD
Containerization supports automated testing processes. Since containers can be spun up and torn down quickly, teams can create isolated testing environments that mimic production settings. This capability is essential for CI/CD pipelines, enabling teams to catch bugs earlier and deliver higher-quality software.
Conclusion
In summary, containerization is a vital component of DevOps, providing consistency, speed, scalability, and improved collaboration. By adopting containerization, organizations can enhance their software delivery processes, aligning perfectly with the core values of DevOps.
#DevOps #Containerization #Microservices #CICD #SoftwareDevelopment #Agile #Kubernetes #Docker #Automation #CloudComputing
By integrating these strategies and technologies, teams can transform their software development and operations, ensuring they remain competitive in today’s fast-paced digital landscape.
0 notes