CLOUD DATA ARCHITECT
Descrizione dell'offerta di lavoro
Cloud Data Architect Nell’ambito del Piano Nazionale di Ripresa e Resilienza (PNRR), della Missione 4 - Componente 2 “Dalla Ricerca all'Impresa”, Linea 1.
, è risultato ammesso a finanziamento il Centro Nazionale "National Centre for HPC, Big Data and Quantum Computing”, tematica “Simulazioni, calcolo e analisi dei dati ad alte prestazioni”, domanda di agevolazione contrassegnata dal codice identificativo CN - CUP.
B23DB23DC, per la realizzazione del Programma di Ricerca dal titolo “National Centre for HPC, Big Data and Quantum Computing” L’IRCCS Istituto Clinico Humanitas, a seguito della delibera del Consiglio di Amministrazione della Fondazione ICSC che nella seduta del 12 Luglio ha approvato il progetto dal titolo.
" Health Data Platform to unraveling the Genetic Complexity to Define Novel Therapeutic Targets in Visceral Cancer" finanziato dai Fondi di Innovazione (1° tranche); ha avviato le procedure di selezione pubblica per il reclutamento nell’ambito del progetto dal titolo.
"Health Data Platform to unraveling the Genetic Complexity to Define Novel Therapeutic Targets in Visceral Cancer." (codice CN National Centre for HPC, Big Data and Quantum Computing)Health Data Platform to unraveling the Genetic Complexity to Define Novel Therapeutic Targets in Visceral Cancer.
TITOLO E BREVE DESCRIZIONE DEL PROGETTO.
Il progetto “Health Data Platform to unraveling the Genetic Complexity to Define Novel Therapeutic Targets in Visceral Cancer” finanziato dai Fondi di Innovazione del progetto.
National Centre for HPC, Big Data and Quantum Computing - CN finanziato dal Piano Nazionale di Ripresa e Resilienza (PNRR) Missione 4 - ha come obiettivo principale di fornire un proof-of-concept completo di un health datalake per la raccolta, lo scambio e l'analisi di dati clinici e scientifici arricchiti dall'intero set di dati relativi allo specifico episodio clinico.
Attività Progettare la piattaforma di data lake utilizzando i servizi Azure DATA e AI, come Synapse, Data Factory, Data Lake Gen2, Stream Analytics, Purview, ecc.
Garantire la gestione operativa della piattaforma basata su architettura cloud con elevata affidabilità, scalabilità e sicurezza.
Creare e mantenere un'architettura della pipeline di dati progettando e implementando soluzioni di ingestion dei dati su Azure utilizzando servizi nativi di Azure (come Synapse, Data Factory, ecc.).
Identificare le architetture e le misure di sicurezza e conformità idonee a garantire la protezione dei dati e la privacy.
Titoli di Studio richiesti.
Laurea e/o Master in informatica, Matematica, fisica, statistica, ingegneria informatica o gestionale o altre discipline STEM Competenze tecniche.
Esperienza lavorativa in un ambiente cloud nativo in almeno uno dei 3 principali cloud pubblici (GCP/AWS/Azure); l'esperienza su Azure è preferibile.
Esperienza e conoscenza delle architetture Big Data, cloud e on premise.
Esperienza comprovata in.
Java, Scala, Python e shell scripting Conoscenza del linguaggio SQL Esperienza di lavoro con.
Apache Spark, Databricks, Azure Data Factory, Azure Synapse e altri strumenti ETL/ELT relativi ad Azure.
Requisiti preferenziali.
Almeno 2 anni di esperienza Buona conoscenza della lingua inglese Humanitas sulla base dei profili ricevuti, attiverà nei termini indicati dal presente avviso, il processo di selezione invitando i candidati idonei a partecipare ai colloqui di selezione, previa verifica del cv e dei titoli, che si terranno in presenza o in modalità telematica.
La commissione di selezione, composta dal Responsabile del Progetto e dalla Direzione Risorse Umane, si farà carico della valutazione complessiva delle candidature ricevute e ne darà un feedback ai candidati entro 60 giorni dal primo colloquio.
Data pubblicazione avviso.
L’avviso è rivolto a candidatə nel rispetto del Dlgs e dei Dlgs e .
Le persone interessate sono invitate a leggere l'informativa privacy ex artt.
13 e 14 del Reg.
UE .
Dettagli dell'offerta
- Imprecisato
- 15/11/2024
- 13/02/2025
Software architect (cloud) con competenze di supporto tecnico e coordinamento team di lavoro... skill richieste: disegno architetture con particolare attenzione a serverless e microservizi cloud aws (compute, network, database, security, developer tools, ci/cd) cloud azure (compute, network, database......
Ricerchiamo sap cloud architect sulla sede di roma... i candidati si sono occupati di delivery di soluzioni applicative scp, quindi hanno maturato esperienza di implementazione di soluzioni ui5, integrazione (sap cloud integration) e del framework java... completano il profilo buone capacità di lavorare......
Ruolo ricoperto: architect senior competenze richieste: - google cloud -aws -scala -spark -python -google cloud bigquery -google cloud dataproc -google cloud dataflow -hive competenze linguistiche: -inglese: livello b1 seniority: +3 anni sede di lavoro: residenza in una delle città menzionate: milano......
Chi cerchiamo: in particolare, per ampliamento del nostro organico, ricerchiamo sviluppatori big data per attivita’ in smart-working... requisiti di lavoro viene richiesta la conoscenza delle seguenti tecnologie: ottima conoscenza sulle tecnologie di elaborazioni su piattaforme bigdata (scala/python......
Per un nostro progetto in ambito energia e metering, siamo alla ricerca di un giovane neolaureato in ingegneria, matematica, fisica o data science/informatica, che sappia programmare correntemente in python e che abbia familiarità con i più comuni framework di data science e con almeno un database relazionale......
Our division focuses on gathering, enriching and processing data for machine learning in different ai domains... com/project/trio-it?/fill?id313=df032 weare currently looking for participants to join our onsite data collection project trio in rome, italy... we offer high-quality data for human-machine......
Ricerchiamo data analyst, per attività di analisi ed estrazione di pattern, sulla sede di milano... e' inoltre gradita la conoscenza delle seguenti tecnologie: jupyter o google datalab, google bigquery, google cloud ml nonché almeno uno fra: tensorflow, pytorch, scikit-learn oppure xgboost......
Ricerchiamo data analyst, per attività di analisi ed estrazione di pattern, sulla sede di milano... e' inoltre gradita la conoscenza delle seguenti tecnologie: jupyter o google datalab, google bigquery, google cloud ml nonché almeno uno fra: tensorflow, pytorch, scikit-learn oppure xgboost......
Ruolo ricoperto: -data engineer competenze richieste: -data warehousing / business intelligence -google cloud bigquery -big data & analytics, -cloudera, mongodb, -jenkins, git -kubernetes competenze linguistiche: -inglese: livello b1 seniority: +3 anni sede di lavoro: residenza in una delle città menzionate:......
Ruolo ricoperto: -architetto google cloud platform competenze richieste: linguaggi: -spark,python,aws,scala -google cloud platform: -gcp bigquery,gcp dataproc,gcp dataflow -hadoop hive/ impala competenze linguistiche: -conoscenza lingua inglese: livello b1 seniority: +3 anni sede di lavoro: roma o milano......