Vedere l'offerta completa

CLOUD DATA ARCHITECT

Descrizione dell'offerta di lavoro

Job Profile: Cloud Data Architect Nell’ambito del Piano Nazionale di Ripresa e Resilienza (PNRR), della Missione 4 - Componente 2 “Dalla Ricerca all'Impresa”, Linea 1.4, è risultato ammesso a finanziamento il Centro Nazionale "National Centre for HPC, Big Data and Quantum Computing”, tematica “Simulazioni, calcolo e analisi dei dati ad alte prestazioni”, domanda di agevolazione contrassegnata dal codice identificativo CN... - CUP: B23D.......C , per la realizzazione del Programma di Ricerca dal titolo “National Centre for HPC, Big Data and Quantum Computing” L’IRCCS Istituto Clinico Humanitas, a seguito della delibera del Consiglio di Amministrazione della Fondazione ICSC che nella seduta del 12 Luglio 2023 ha approvato il progetto dal titolo: " Health Data Platform to unraveling the Genetic Complexity to Define Novel Therapeutic Targets in Visceral Cancer" finanziato dai Fondi di Innovazione (1° tranche); ha avviato le procedure di selezione pubblica per il reclutamento nell’ambito del progetto dal titolo: "Health Data Platform to unraveling the Genetic Complexity to Define Novel Therapeutic Targets in Visceral Cancer." ( codice CN... National Centre for HPC, Big Data and Quantum Computing)Health Data Platform to unraveling the Genetic Complexity to Define Novel Therapeutic Targets in Visceral Cancer. TITOLO E BREVE DESCRIZIONE DEL PROGETTO: Il progetto “Health Data Platform to unraveling the Genetic Complexity to Define Novel Therapeutic Targets in Visceral Cancer” finanziato dai Fondi di Innovazione del progetto: National Centre for HPC, Big Data and Quantum Computing - CN... finanziato dal Piano Nazionale di Ripresa e Resilienza (PNRR) Missione 4 - ha come obiettivo principale di fornire un proof-of-concept completo di un health datalake per la raccolta, lo scambio e l'analisi di dati clinici e scientifici arricchiti dall'intero set di dati relativi allo specifico episodio clinico. Attività Progettare la piattaforma di data lake utilizzando i servizi Azure DATA e AI, come Synapse, Data Factory, Data Lake Gen2, Stream Analytics, Purview, ecc. Garantire la gestione operativa della piattaforma basata su architettura cloud con elevata affidabilità, scalabilità e sicurezza. Creare e mantenere un'architettura della pipeline di dati progettando e implementando soluzioni di ingestion dei dati su Azure utilizzando servizi nativi di Azure (come Synapse, Data Factory, ecc.). Identificare le architetture e le misure di sicurezza e conformità idonee a garantire la protezione dei dati e la privacy. Titoli di Studio richiesti : Laurea e/o Master in informatica, Matematica, fisica, statistica, ingegneria informatica o gestionale o altre discipline STEM Competenze tecniche: Esperienza lavorativa in un ambiente cloud nativo in almeno uno dei 3 principali cloud pubblici (GCP/AWS/Azure); l'esperienza su Azure è preferibile. Esperienza e conoscenza delle architetture Big Data, cloud e on premise. Esperienza comprovata in: Java, Scala, Python e shell scripting Conoscenza del linguaggio SQL Esperienza di lavoro con: Apache Spark, Databricks, Azure Data Factory, Azure Synapse e altri strumenti ETL/ELT relativi ad Azure. Requisiti preferenziali : Almeno 2 anni di esperienza Buona conoscenza della lingua inglese Humanitas sulla base dei profili ricevuti, attiverà nei termini indicati dal presente avviso, il processo di selezione invitando i candidati idonei a partecipare ai colloqui di selezione, previa verifica del cv e dei titoli, che si terranno in presenza o in modalità telematica. La commissione di selezione, composta dal Responsabile del Progetto e dalla Direzione Risorse Umane, si farà carico della valutazione complessiva delle candidature ricevute e ne darà un feedback ai candidati entro 60 giorni dal primo colloquio. Data pubblicazione avviso: 15/11/2024 L’avviso è rivolto a candidatə nel rispetto del Dlgs 198/2006 e dei Dlgs 215/2003 e 216/2003. Le persone interessate sono invitate a leggere l'informativa privacy ex artt. 13 e 14 del Reg. UE 2016/679.
Vedere l'offerta completa

Dettagli dell'offerta

Azienda
  • Humanitas
Località
  • Tutta l'Italia
Indirizzo
  • Imprecisato - Imprecisato
Data di pubblicazione
  • 16/11/2024
Data di scadenza
  • 14/02/2025
software architect (cloud)
Programs & Projects Consulting S.r.L.

Software architect (cloud) con competenze di supporto tecnico e coordinamento team di lavoro... skill richieste:• disegno architetture con particolare attenzione a serverless e microservizi• cloud aws (compute, network, database, security, developer tools, ci/cd)• cloud azure (compute, network, database......

SAP Cloud Architect Esperto SCP K5 Roma
Programs & Projects Consulting S.r.L.

Ricerchiamo sap cloud architect sulla sede di roma... i candidati si sono occupati di delivery di soluzioni applicative scp, quindi hanno maturato esperienza di implementazione di soluzioni ui5, integrazione (sap cloud integration) e del framework java... completano il profilo buone capacità di lavorare......

Architect senior su Roma o Milano
Sincrono formazione srl

Ruolo ricoperto: architect senior competenze richieste: - google cloud -aws -scala -spark -python -google cloud bigquery -google cloud dataproc -google cloud dataflow -hive competenze linguistiche: -inglese: livello b1 seniority: +3 anni sede di lavoro: residenza in una delle città menzionate: milano......

Big Data Developer
Programs & Projects Consulting S.r.L.

Chi cerchiamo: in particolare, per ampliamento del nostro organico, ricerchiamo sviluppatori big data per attivita’ in smart-working... requisiti di lavoro viene richiesta la conoscenza delle seguenti tecnologie: ottima conoscenza sulle tecnologie di elaborazioni su piattaforme bigdata (scala/python......

Offerta di lavoro come Data scientist
Mr doc

Per un nostro progetto in ambito energia e metering, siamo alla ricerca di un giovane neolaureato in ingegneria, matematica, fisica o data science/informatica, che sappia programmare correntemente in python e che abbia familiarità con i più comuni framework di data science e con almeno un database relazionale......

Data Collection Project Trio
DataForce by TransPerfect

Our division focuses on gathering, enriching and processing data for machine learning in different ai domains... com/project/trio-it?/fill?id313=df032 weare currently looking for participants to join our onsite data collection project trio in rome, italy... we offer high-quality data for human-machine......

Data Analyst su Milano
Programs & Projects Consulting S.r.L.

Ricerchiamo data analyst, per attività di analisi ed estrazione di pattern, sulla sede di milano... e' inoltre gradita la conoscenza delle seguenti tecnologie: jupyter o google datalab, google bigquery, google cloud ml nonché almeno uno fra: tensorflow, pytorch, scikit-learn oppure xgboost......

Data analyst milano
Programs & projects consulting s.r.l.

Ricerchiamo data analyst, per attività di analisi ed estrazione di pattern, sulla sede di milano... e' inoltre gradita la conoscenza delle seguenti tecnologie: jupyter o google datalab, google bigquery, google cloud ml nonché almeno uno fra: tensorflow, pytorch, scikit-learn oppure xgboost......

Data Engineer
Sincrono Formazione Srl

Ruolo ricoperto: -data engineer competenze richieste: -data warehousing / business intelligence -google cloud bigquery -big data & analytics, -cloudera, mongodb, -jenkins, git -kubernetes competenze linguistiche: -inglese: livello b1 seniority: +3 anni sede di lavoro: residenza in una delle città menzionate:......

Architetto google cloud platform (Roma o Milano)
Gruppo sincrono

Ruolo ricoperto: -architetto google cloud platform competenze richieste: linguaggi: -spark,python,aws,scala -google cloud platform: -gcp bigquery,gcp dataproc,gcp dataflow -hadoop hive/ impala competenze linguistiche: -conoscenza lingua inglese: livello b1 seniority: +3 anni sede di lavoro: roma o milano......