The Emerging Technologies team in Global Technology and Operations (GTO) Canada at CGI is a trusted Data, Cloud and AI advisor and go-to implementation partner for our global clients' Data and Advanced Analytics needs. We're an entrepreneurial team that is on a continuous mission to position CGI as the best-in-class AI partner and develop new and exciting opportunities in latest technologies. Extensive hands-on development experience in Generative AI projects is a MUST HAVE - this is not a beginner role please. This is a hands-on and Architect role, not a pure architecture design role. This role comes with sometimes intense delivery expectations churning out POVs for clients in a short period of time and then going on to implement a full-scale production solution ensuring right user experience and adoption. This role is open to locations within proximity to a CGI office. As an Architect (AI and Generative AI) on our team, your responsibilities will include: Leading a client or internal CGI project as the Technical Architect and Lead – architecting solutions and also contributing in part hands-on to solution development. Building Large Language Models-based and NLP-based solutions for CGI clients by researching the best in class techniques and being a self-starter with newer technologies. Having strong architectural acumen designing solution architectures for AI and GenAI solutions. Mitigating risks and optimizing costs associated with choosing a GenAI architecture solution and advise clients on best practices in GenAI. Helping data engineer and prompt engineer the LLM solutions end-to-end to enhance end user experience. Being "hands-on" to build, tune, deploy and monitor (MLOps and LLMOps) robust Machine Learning solutions built on RAG and latest GenAI techniques. Helping fine-tune LLMs with latest cost optimized PEFT techniques like LoRA, QLoRA. Strategically and intensely collaborating with innovation team and the client stakeholders and account teams to ideate and build key GenAI solutions. Collaborating with other Data Scientists and Data Engineers in a client engagement setting and leading the delivery of work. Implementing proof of concepts to show value and then package and scale to full ML solutions at scale on both on-prem and cloud environments. Essential Qualifications: Architecture design and solution design experience with GenAI and AI solutions – including aspects like cost, scalability, security, performance, and maintainability. Hands-on work experience with implementing Generative AI, LLMs, or GenAI solutions on at least 2-5 different projects or at least 1 project that was deployed in production. Prompt Engineering experience on tools such as Azure Promptflow, Amazon Bedrock, Azure AI Studio would be ideal. Experience building LLM-based solution on Azure, AWS or GCP. Experience fine-tuning LLMs with latest techniques. Experience with multiple models including open source models deployment (LLaMa, Mistral et al). Experience with multiple Vector Databases. 5 or more years "hands-on" working experience delivering diverse Advanced Analytics and AI solutions. Hands-on expertise in building and deploying code in Python, SQL and major programming languages with at least one major Cloud platform Azure, AWS, GCP. Experience with GenAI agents and agentic frameworks like Crew, Autogen etc. Experience with MSFT 365 Copilot, Copilot plugins and connectors, Copilot Studio. Seniority level Mid-Senior level Employment type Full-time Job function Information Technology Industries IT Services and IT Consulting #J-18808-Ljbffr
Spécialiste de la gouvernance des risques (intermédiaire)
Description de poste En tant que spécialiste de la gouvernance des risques, vous jouerez un rôle essentiel dans la mise en œuvre cohérente du cadre de gouvernance des risques de modèle pour la division Amériques de nos client, couvrant une gamme diversifiée de familles de modèles. Rattaché directement à la haute direction de la gouvernance des risques de modèle, vous serez responsable de la gestion et de la maintenance de l'inventaire des modèles AMER et de la plateforme de gestion des risques de modèle (plateforme GRC) - le système central qui sous-tend le suivi de l'inventaire et la gouvernance des modèles dans toute la région.
Ce rôle exige une compréhension approfondie du cycle de vie du modèle. Vous jouerez un rôle déterminant dans la mise en œuvre de politiques et de contrôles qui garantissent l'exactitude, la fiabilité et la pertinence du modèle, en veillant à ce qu'ils soutiennent efficacement les processus de prise de décision.
Si vous êtes un professionnel soucieux du détail et passionné par l'amélioration de la gouvernance des modèles, ce rôle offre une opportunité percutante dans un environnement dynamique à enjeux élevés.
Quel sera votre QUOTIDIEN ? Ce rôle offre l'opportunité de diriger et de renforcer la gouvernance des risques de modèle dans un environnement dynamique à enjeux élevés. En tant que responsable des risques (gouvernance des risques liés aux modèles), vous jouerez un rôle essentiel pour garantir l'intégrité et l'efficacité de notre gouvernance des risques liés aux modèles.
Vos principales responsabilités incluent : -Superviser le programme de remédiation MRM : participer activement au programme de remédiation en veillant à ce que les livrables soient fournis et approuvés en temps voulu. -Gouvernance et rapports : affiner le cadre de risque en améliorant les politiques et procédures de risque du modèle AMER afin de garantir que le cadre amélioré est signalé dans les politiques. -Gérer l'inventaire des modèles : impliquer les parties prenantes pour mettre à jour l'inventaire des modèles SG AMER en fonction de la définition mise à jour des modèles et des non-modèles. -Coordonner avec les équipes de validation : pour aborder et convenir du plan de validation annuel. -Soutenir la préparation réglementaire et d'audit : préparer les documents pour les régulateurs et les audits internes/externes. -Collaborer sur les solutions technologiques : s'associer à la technologie pour créer des solutions d'inventaire et de flux de travail de modèles. -Suivre et signaler les problèmes : examiner et surveiller les mesures correctives et distribuer les documents de gouvernance.
Profil Compétences et qualifications : Doit posséder : -3 ans ou plus d'expérience en gestion des risques : expérience avérée en gestion des risques, risque de modèle, avec une connaissance approfondie des mesures de risque, des contrôles de modèle et des normes du secteur, y compris les exigences réglementaires telles que SR11-07. -Licence : Finance, économie ou domaine similaire. -Expertise en documentation de politiques : solide expérience dans la rédaction de documents sur les politiques et les procédures, de rapports SIG et de documents destinés à la haute direction, aux forums de surveillance et aux régulateurs. -Gestion du changement et influence : réussite avérée en tant que partenaire de confiance dans la mise en œuvre des changements et la promotion de l'adoption par les utilisateurs finaux. -Compétences interpersonnelles exceptionnelles : très collaboratif et capable de s'engager avec des équipes interfonctionnelles. -Souci du détail et compétences organisationnelles : soucieux du détail, organisé et apte à établir des priorités.
Atouts : -Expérience en cabinet de conseil/d'audit : expérience en conseil ou en audit, en particulier dans la gestion de multiples projets de gestion des risques dans les secteurs de l'investissement ou de la finance.
LANGUE : Français et anglais La capacité à communiquer en anglais, à l'oral comme à l'écrit, est une exigence, car la personne à ce poste devra collaborer régulièrement avec des collègues et des partenaires aux États-Unis.
En raison de la loi fédérale américaine sur les valeurs mobilières qui s'applique à ce poste, les candidats qui postuleront à ce poste devront se soumettre à une vérification approfondie des antécédents, y compris la collecte de leurs empreintes digitales par un fournisseur tiers sélectionné par la Financial Industry Regulatory Authority (« FINRA »).
#LI-AM1
DevOps Engineering specialist
We are seeking a DevOps Engineering Specialist to join our team and support one of our major financial clients in delivering cutting-edge solutions. This role will focus on automating and optimizing infrastructure and application delivery pipelines to drive operational excellence. You will work closely with cross-functional teams to design and implement scalable, secure, and resilient systems. This position is a unique opportunity to work on high-impact projects within the financial sector, leveraging your expertise in DevOps tools and methodologies to deliver robust solutions in a fast-paced environment.
Key Responsibilities: Design, implement, and maintain CI/CD pipelines using Jenkins and other automation tools. Develop Infrastructure as Code (IaC) solutions with Terraform to manage cloud environments, primarily Azure , with potential opportunities in GCP . Collaborate with development teams to ensure seamless integration and delivery of applications. Automate and manage version control systems and workflows using GitHub , including branching strategies, pull requests, and code reviews. Write and maintain scripts in Python to automate operational tasks, infrastructure provisioning, and configuration management. Monitor and optimize system performance, reliability, and security. Troubleshoot and resolve issues related to CI/CD pipelines, cloud infrastructure, and automation tools. Document best practices, procedures, and knowledge for team reference and training.
Recommended Competencies: Proven ability to design and implement CI/CD pipelines for large-scale projects. Strong expertise in managing Infrastructure as Code (IaC) using Terraform . Proficiency in cloud platforms, particularly Azure , with GCP experience as a bonus. Advanced knowledge of scripting in Python to create efficient, reusable automation scripts. Solid understanding of DevOps tools and workflows, including source control management with GitHub . Experience with monitoring and optimizing pipeline and infrastructure performance. Familiarity with Agile development practices and collaboration tools like Jira and Confluence. Ability to troubleshoot complex technical issues and identify root causes efficiently.
Technologies: Core Tools: GitHub, Terraform, Azure, Jenkins, Python Bonus Experience: Google Cloud Platform (GCP), Docker, Kubernetes Collaboration and Project Tools: Jira, Confluence, Slack, Teams
Qualifications: Experience: 3+ years of experience in DevOps engineering, cloud infrastructure management, and CI/CD pipeline automation. Skills: Expertise in cloud platforms, particularly Azure , with GCP as a bonus. Proficient in scripting with Python for automation and operational tasks. Hands-on experience with CI/CD tools such as Jenkins and source control systems like GitHub . Strong understanding of Infrastructure as Code (IaC) principles and tools like Terraform . Knowledge of containerization tools such as Docker and orchestration with Kubernetes is a plus. Excellent problem-solving and debugging skills in complex environments. Strong communication and documentation skills for knowledge-sharing and collaboration. This position provides a chance to work on transformative projects within the financial sector, leveraging cutting-edge technologies to enable innovation and operational excellence. Join us to shape the future of financial technology with your expertise in DevOps.
Infrastructure and Platform Engineering Specialist
We are seeking an Infrastructure and Platform Engineer Specialist to join our team and contribute to a high-profile, national-impact project within Canada’s financial and payments ecosystem. This project is pivotal, handling billions of dollars in daily transactions while driving innovation in the banking and payment space for all Canadian citizens.
As part of the CGI team working on behalf of a major financial institution, you will be responsible for: Designing and implementing infrastructure solutions with a focus on high availability, redundancy, and disaster recovery. Managing vendor-delivered components to ensure they meet strict operational and business requirements. Maintaining the long-term operational excellence of critical systems while collaborating with a governing national organization.
This is a long-term engagement that offers opportunities to innovate and lead within a high-impact environment.
Key Responsibilities: Collaborate with cross-functional teams to design, implement, and maintain strategies that support system resiliency, high SLAs, and operational continuity. Develop and oversee redundancy and disaster recovery solutions, ensuring metrics for system uptime and availability are consistently met. Evaluate and confirm the delivery of infrastructure components from vendors against defined business, security, and technical requirements. Provide technical leadership and mentorship within the team, fostering knowledge-sharing and operational readiness. Actively participate in troubleshooting and problem resolution for critical incidents to minimize downtime and mitigate risks. Contribute to the design and integration of future infrastructure projects, ensuring scalability and innovation. Play a critical role in documenting and disseminating operational knowledge across teams, including the operations team.
Recommended Competencies: Proven ability to guide project and team best practices for design, planning, and vendor management. Expertise in creating and executing testing plans to confirm infrastructure readiness and adherence to requirements. Strong collaboration skills across diverse teams and verticals, with the ability to navigate complex organizational structures. Hands-on experience with OpenShift container orchestration and related platforms. Ability to take initiative and lead in new, diverse project components. Experience mentoring team members and fostering an environment of continuous improvement.
Technologies: Core Platforms: OpenShift Container Orchestration System, Kong, Istio CI/CD and Automation Tools: ArgoCD, Jenkins, Artifactory Messaging and Application Servers: RedHat Message Queue, Spring Boot Server Service Management and Security Tools: ServiceNow, Hashicorp Vault, IDAM/2Keys Databases: Postgres, CockroachDB Orchestration and Collaboration: Ansible, Jira, Confluence (Agile framework)
Qualifications: Experience: 5+ years of experience in infrastructure design, operational excellence, and platform engineering. Skills: Deep knowledge of high availability, disaster recovery, and redundancy principles. Proficiency in managing containerized environments, particularly OpenShift and related technologies. Hands-on expertise with CI/CD tools (e.g., Jenkins, ArgoCD) and configuration management tools (e.g., Ansible). Familiarity with Agile methodologies and tools like Jira and Confluence. Strong leadership capabilities with a proven ability to mentor and guide team members. Excellent documentation and communication skills to disseminate operational knowledge effectively.
This position offers a unique opportunity to work on one of Canada’s most impactful infrastructure projects. Join us in shaping the future of financial technology while ensuring operational excellence and platform resiliency.
Are you an experienced Azure Data Engineering professional interested in working in a talented and collaborative team developing Cloud, Data and AI solutions for leading global clients? Do you regularly find yourself in conversations on disparate and dispersed data sources and feel the need to create a robust data engineering infrastructure to sort that mess out? If you have that technical expertise of building pipelines and enabling data engineering or ETL in organizations, a genuine flair for solving problems, and the mindset to collaborate with diverse clients and team members alike, we're looking for you.
**Expertise in Azure Data Factory, Azure Databricks and Spark/Pyspark is required for this role**
**This is a hands-on role**
As an Azure Data Engineer (Databricks) on this team your responsibilities will include: Delivering on areas of data preparation and transformations and ETL or ELT development on Azure - Azure Data Factory (ADF), Azure Databricks, Azure Data Lake (ADLS), Synapse, Azure SQL database, Azure SQL Datawarehouse Building Batch and Streaming data pipelines with Databricks Working in a business environment with large-scale, complex and big data datasets and dispersed data sources Using SQL or Advanced SQL and Python skills as necessary Gathering client requirements, coding and building Data Engineering pipelines in Azure Implementing proof of concepts to show value and then package and scale to full data engineering scale on both on-prem and cloud environments Strategically collaborating with the clients to explore data sources and build Power BI dashboards with Azure Data Engineering Supporting and collaborating with the other Data Engineers or Data Scientists in the team with technical knowledge
Essential skillsets and expertise needed: Azure Databricks, Azure Data Factory, and Spark/Pyspark experience is mandatory Total 5+ years’ experience in Data Engineering is required to apply to this role Experience with building streaming pipelines on Azure 3 years or more in Azure Data Engineering Data analysis, storage, data pipelines, and orchestration Expert Python and SQL skills Experience working on Big Data
Nice to Have Qualifications Experience with Informatica Experience in data engineering with ML projects Experience with data pipeline and workflow management tools eg. Airflow, Jenkins etc. Experience working with Spark/ Hive/HDFS Experience in building strong Power BI Dashboards with DAX queries, Power Apps, Power Automate, and Logic Apps
The SAP Solutions Architect is a senior role that plays a vital part in shaping the technology landscape within the client Enterprise Architecture. This individual will lead the solutions design and analysis for SAP based solutions to business problems, as well as provide strategic advice to management and peers on SAP related matters. This role will facilitate and collaborate with all areas within IT and key business partners to ensure solutions provide desired business outcomes that align with the business strategy. As such the SAP Platform Architect will require a deep knowledge and understanding of how the many components of SAP information technology work together to create a functioning ecosystem. The SAP Solution Architect will be a guiding force on the team as they create and document platform, application and technology standards and roadmaps for the team. This role will require a high level of creativity, problem solving, and communication skills.
Responsibilities:
Facilitates and Collaborates to Deliver Business Outcomes within the Corporate Ecosystem Translates business strategy into solution architecture. Leads Solutions Design and Analysis Solution Delivery Documentation and Mentorship SAP Solution Architecture
Additional required knowledge, skills and abilities include:
Experience implementing SAP in a large organization. A deep understanding of SAP and its modules; a deep technical understanding of SAP and its design standards, frameworks, platform ecosystems, and processes to support and facilitate optimization In depth knowledge of enterprise architecture disciplines such as business, application, data, cloud and security Knowledge of various integration platforms such as Mulesoft or Azure Integration Services Knowledge of various database technologies like MS SQL, MySQL, MongoDB and Oracle In depth knowledge of application development technologies and frameworks including web development, client server, multi-tier, database and middleware. In depth understanding of SDLC (software development lifecycle) In depth knowledge of application and integration design patterns Understanding and knowledge of system development life cycle methodologies (such as waterfall, spiral, agile software development, rapid prototyping, incremental, synchronize and stabilize, and DevOps) Understanding and knowledge of IT service management (ITSM) and Information Technology Infrastructure Library (ITIL) Knowledge and understanding of different modeling languages (such as UML and ArchiMate) Understanding and knowledge of IT standards and controls Ability to work with domain architects and developers in an in-and-out outsourced environment Ability to propose and estimate the financial impact of solution architecture alternatives Ability to work creatively and analytically to solve business problems and propose solutions Ability to quickly comprehend the functions and capabilities of new technologies Understanding of cloud architecture and automation Understanding of emerging technologies like AI / ML / RPA Understanding of high-level disaster recovery framework planning, design and implementation
Minimum Education Requirements:
Minimum of a Degree in computer science or related technology focused discipline 5 years of experience, including 2 years leading projects and/or supervising others.
Développeur JAVA Senior
Position Description Développeur JAVA Senior
Position Description Description de poste Dans ce rôle, vous serez responsable du développement d'applications basées sur des microservices, de la conception d'API RESTful et de la garantie de la sécurité et de la fiabilité de nos systèmes backend.
Vous collaborerez en étroite collaboration avec des équipes inter-fonctionnelles pour proposer des solutions innovantes et optimiser les performances des applications. Votre maîtrise de la conteneurisation, des files d'attente de messages (Message Queue Kafka) et du déploiement cloud sera mise à profit pour améliorer notre architecture d'applications.
Nous recherchons une personne proactive qui résout les problèmes, qui est passionnée par le fait de rester à jour avec les meilleures pratiques de l'industrie et qui peut contribuer à un environnement de développement dynamique et collaboratif.
Concepts Java, multithreading et programmation orientée objet, développement d'API RESTful à l'aide de Spring Boot, architecture basée sur des microservices, intégration de bases de données, mise en œuvre d'une communication basée sur les messages à l'aide de technologies comme Apache Kafka pour le traitement asynchrone, GIT GitHub/BitBucket.
Être membre chez CGI vous permettra non seulement d’élargir votre champ de compétence sur plusieurs technologies, mais vous donnera également l’opportunité de conseiller nos clients d’envergure sur les technologies et méthodologies appropriées à leurs besoins. Notre équipe est dynamique et encourage la collaboration, l’échange et l’initiative. Le respect et le plaisir sont à la base de notre environnement de travail.
CGI met l’accent sur chacun de nous, en nous offrant un plan de formation personnalisé, des avantages financiers très compétitifs et des horaires flexibles nous permettant de concilier vie personnelle et carrière. Être membre chez CGI vous permettra non seulement d’élargir votre champ de compétence sur plusieurs technologies, mais vous donnera également l’opportunité de conseiller nos clients d’envergure sur les technologies et méthodologies appropriées à leurs besoins.
Notre équipe est dynamique et encourage la collaboration, l’échange et l’initiative. Le respect et le plaisir sont à la base de notre environnement de travail.
CGI met l’accent sur chacun de nous, en nous offrant un plan de formation personnalisé, des avantages financiers très compétitifs et des horaires flexibles nous permettant de concilier vie personnelle et carrière.
Fonctions et responsabilités - Participer à la refonte de l' architecture transversale de l' équipe - Développer des APIs performants qui évoluent continuellement - Challenger tes collègues développeurs et faire évoluer l équipe dans son ensemble - Contribuer à des projets d envergure et maximiser la création de valeur par la technologie - Faire évoluer les technologies conformément à la cible d architecture et de manière sécuritaire
Qualités requises pour réussir dans ce rôle Environnement : Java, Spring Boot, Kafka, SQL (Oracle/MS SQL). - 7+ ans d'expérience en développement Java Spring Boot - Bonne maitrise de la langue français ou bilinguisme obiligatoire* - (Atout) Expérience pertinente dans le domaine de solution de paiement électronique et transfert de fond - Bonne connaissance de Angular - Expérience de AWS ou AzUre - Développement backend Java (Spring boot, REST API, micro-services) - Framework Spring boot - Outils de tests (Junit, Cucumber (Gherkin) - Services/API Web (REST, SOAP) - IDE (Eclipse, IntelliJ IDEA) - Source Code Management (BitBucket (GIT)) - expérience avec des services de messages tel que Apache Kafka, Rabbit MQ, IBM MQ - Approche rigoureuse d'assurance qualité à toutes les étapes de conception, développement, déploiement et opération des micro-services - Expérience en développement Agile et Devops - Leadership et prise d initiatives - Aptitudes à communiquer efficacement
Le bilinguisme (français et anglais) est requis pour ce poste en raison de la nature de la fonction qui nécessite des interactions avec des clients nationaux et internationaux.
Poste Hybride: Montréal ou les Régions - 1 à 2jours/semaines dans les bureaux.
#LI-AM1
Êtes-vous un professionnel de Développeur Power BI et spécialiste en ingénierie des données? intéressé à travailler dans une équipe talentueuse et collaborative développant des solutions Cloud, Data et IA pour des clients mondiaux de premier plan? Vous trouvez-vous régulièrement dans des conversations sur des sources de données disparates et dispersées et ressentez-vous le besoin de créer une infrastructure d’ingénierie des données robuste pour résoudre ce désordre? Si vous avez cette expertise technique de construction de pipelines et de mise en œuvre de l’ingénierie des données ou ETL dans les organisations, puis de création de tableaux de bord Power BI, un véritable flair pour résoudre les problèmes, et l’état d’esprit pour collaborer avec des clients et des membres d’équipe divers, nous vous recherchons.
En tant que développeur dans cette équipe, vos responsabilités incluront : Collaborer stratégiquement avec les clients pour explorer les sources de données et créer des tableaux de bord Power BI avec l’ingénierie des données Azure Appliquer votre expérience dans la création de tableaux de bord Power BI solides avec des requêtes DAX, Power Apps, Power Automate et Logic Apps Livrer des domaines de préparation et de transformation des données et de développement ETL ou ELT sur Azure - Azure Data Factory (ADF), Synapse, etc. Construire des pipelines d’ingénierie des données Travailler dans un environnement commercial avec des ensembles de données volumineux, complexes et de grande envergure et des sources de données dispersées Utiliser des compétences SQL ou SQL avancées et Python selon les besoins Recueillir les exigences des clients, coder et mettre en œuvre des solutions de données Soutenir et collaborer avec les autres Data Engineers ou Data Scientists de l’équipe avec des connaissances techniques Qualifications essentielles Un minimum de 5 à 7 ans d’expérience est requis pour postuler à ce poste 3 ans ou plus dans le développement de tableaux de bord Power BI 3 ans ou plus dans l’ingénierie des données Azure Analyse des données, stockage, pipelines de données et orchestration Compétences expertes en Python et SQL Expérience de travail sur au moins une plateforme cloud moderne (Azure, AWS, GCP, etc.), de préférence Azure Expérience de travail sur Big Data Compétences solides en manipulation de données Baccalauréat ou maîtrise Excellentes compétences en communication et en travail d’équipe
Qualifications souhaitables Expérience en ingénierie des données avec des projets de ML Expérience avec des outils de gestion de pipeline de données et de flux de travail, par exemple Airflow, Jenkins, etc. Expérience avec une variété d’outils ETL comme Azure Data Factory, Google Dataflow, Qlik Compose, AWS Data Pipeline ou Glue, Talend, Microsoft SSIS, IBM Datastage, Informatica
Administrateur de transfert de fichiers Middleware
Description de poste La vision de l'équipe Global Technologies Services est de fournir des services et un support technologique de pointe et rentables basés sur une infrastructure partagée par le client, nécessitant le respect de normes, de politiques et de paramètres de sécurité communs. Les équipes sont alignées à l'échelle mondiale pour tirer parti des meilleures pratiques, normes et procédures à l'échelle mondiale. Le groupe Middleware fait partie de l'équipe mondiale qui fournit un soutien aux activités du client à l'échelle mondiale. L'administrateur Middleware de Montréal travaillera en étroite collaboration avec d'autres administrateurs Middleware basés à Montréal, aux États-Unis et à Paris pour gérer les middlewares situés au Canada et aux États-Unis et participera également à la rotation des équipes d'astreinte pour fournir un soutien aux systèmes mondiaux.
Quel sera votre quotidien ? Les responsabilités de l'administrateur de transfert de fichiers incluent, sans s'y limiter, les technologies suivantes : Principales technologies prises en charge : -Suite IBM Sterling (Connect Enterprise, Connect Express, Connect Direct, Sterling File Gateway, Sterling Secure Proxy, etc.) -Axway CFT est un plus. Principaux protocoles pris en charge : -FTP, SFTP -PeSIT -Connect:Direct (C:D) -FTP/SSL -Fournir un support de production en dehors des heures de travail et le week-end et être capable de gérer les alertes d'astreinte -Fournir un support d'astreinte dans le cadre du support Follow-the-sun pour les systèmes de Paris et d'Asie -Fournir des conseils, des bonnes pratiques au client de l'équipe (interne, GTS, ITEC…) -Aider à mettre en œuvre et à mettre à jour le standard de l'équipe (installation, bonnes pratiques, etc.) -Contribuer à l'usine d'API pour le provisionnement et l'automatisation de la plateforme de transfert de fichiers. -Être orienté processus et être capable de mettre en œuvre un ensemble commun de normes, de méthodes et de procédures utilisées pour tous les travaux de transfert de fichiers, ainsi que de pouvoir recommander des chemins de mise à niveau logicielle et matérielle
Profil COMPÉTENCES -Axé sur le client, capable de travailler de manière autonome tout en interagissant avec différentes équipes pour accomplir des projets et doit être soucieux du détail. -Être prêt à apprendre de nouvelles technologies et méthodologies. -Motivé et joueur d'équipe. -Excellentes compétences organisationnelles et interpersonnelles. -Excellentes compétences en communication et en présentation, tant à l'écrit qu'à l'oral. -Expérience de travail dans un environnement 24h/24 et 7j/7. -Expérience de travail avec des équipes distribuées. -Expérience de la gestion opérationnelle. -Compétences linguistiques en français et en anglais (écrites et/ou orales).
Souhaitable/Plus : -Familiarité avec le processus ITIL
COMPÉTENCES TECHNIQUES Requis/doit avoir : -Connaissance des technologies de transfert de fichiers (échange de clés, réseau de base, …) -Solides connaissances des systèmes d'exploitation (Linux/Unix/Windows) -Compétence en scripting (shell, python...
LANGUE : Français et anglais La capacité à communiquer en anglais, à l'oral comme à l'écrit, est une exigence car la personne à ce poste devra collaborer régulièrement avec des collègues et des partenaires aux États-Unis.
#LI-AM1
Administration and support of zSeries systems in a large network environment / complex multi-client, multi-vendor and multi-protocol systems. Participation in the evolution of the zSeries platform by working to develop scalable and innovative service offerings that are future-oriented and meet current and future customer needs. Collaboration with technical specialist teammates (Operating system, Databases, telecommunications, security, Web applications) evolving in a constantly changing context.
Location: Open within proximity to a CGI office
Your future duties and responsibilities
As a system programmer on our team, you will be working on major initiatives within the Mainframe practices. This role will require communication and interaction with multiple internal and external clients such as third-party partners, vendors, network, data center and client engagement teams to ensure the smooth implementations of changes in the environments. You will also have to share knowledge with the rest of the teams, coach and mentor young members, troubleshoot issues and seize opportunities to develop enhancements and new service offerings.
· Install, propagate, maintain and support z/OS and related software products on centralized zSeries servers. · Master the tools of centralized zSeries servers (JCL, Scheduler, operation, Automation, Storage, printing, process of changes and incidents). · Ensure the performance of the systems and monitor the different components. · Support the daily systems maintenance activities; · Perform problem determination and resolution; · Diagnose complex problems, propose and implement solutions adapted to customer needs; · Manage service request and/or reported problem, follow up until resolution; · Create and maintain technical procedures and solutions documentation; · Provide functional analysis for new requirements and service offerings; · Develop solutions aimed at improving processes that involve the support of our clients; · Ensure the performance of the systems and monitor the different components; · Coach and/or mentor colleagues; · Participate in audits; · Participate in Disaster Recovery tests; · Provide on-call support as scheduled.
Required qualifications to be successful in this role · Extensive experience with installing, configuring, administration and tuning of several technologies / products; · Functional: z/OS, JES2 products, Storage (backup, archive, Tape Manager, IOGEN), Monitors, automation, SDSF / IOF, RACF / TSS / ACF2, Sysplex, testing and debugging tools; · Preferred: IBM mainframe knowledge and experience (CICS, IMS, JCL, Rexx, ISPF, OMVS, …); · Operating Systems (Windows Server, Linux); · Relational Databases (SQL-Server, PostgreSQL, …); · Application Servers (Java or .NET); · Application Deployment Environments (Microfocus Enterprise Server, Heirloom Elastic Cobol, TSRI, …); · Development frameworks and tools (Git, Ticketing, …); · Compilers (Cobol, PL/I, …); · Middleware (MQ-Series, …); · General: Products such as DB, CICS, IMS and other MF software; · Scheduler agents (Control-M, TWS, …) · Experience using Microsoft Word, Excel.