Initialisation en cours...

0% chargé

0111001011010011
aaub.ai
Background
À l'écoute d'opportunités - 2026

Acobe Ange Ulrich BONI

Transformer les données en Solutions Intelligentes

Étudiant ingénieur en Data Science & IA, spécialisé en Data Engineering et Big Data, avec des compétences en Développement Backend et Deep Learning. Réalisation de projets pratiques et scalables pour résoudre des problématiques concrètes.

💡À propos de moi

Étudiant en dernière année de cycle ingénieur en Data Science & IA, spécialisé en Big Data et Data Engineering. Passionné par les architectures distribuées, le backend, l'administration Linux et le DevOps pour pipelines data.

Mon objectif : concevoir et opérer des plateformes data scalables et fiables, de l'ingestion au serving, avec qualité, sécurité et performance.

Big Data
Data Eng
DevOps
Tunisie
Profile

Status

À l'écoute d'opportunités - 2026

Parcours académique

2023-2026

Cycle Ingénieur – Data Science & IA

TEK-UP
2019-2022

Licence Professionnelle — Réseaux et Télécommunications

ESATIC
2018-2019

Baccalauréat — Série scientifique

Lycée

Mes compétences techniques

Langages, Big Data, Cloud, Bases de données, Outils

📊

Data Engineering

SQL80%
Apache Airflow75%
Python70%
Apache Spark60%
PostgreSQL60%
MongoDB50%
LangGraph / RAG50%
Java40%
⚙️

Backend / API

.NET API REST65%
Laravel60%
Django REST Framework50%
FastAPI50%
Auth / JWT / OAuth250%
☁️

DevOps / Cloud

Docker70%
Git70%
Azure (SQL DB, VM)65%
MinIO (S3-compatible)60%
AWS (EC2, S3, IAM, VPC)55%

Projets

Sélection de travaux techniques et académiques

Agent‑X — Outil d’automatisation de pentesting
ML

Agent‑X — Outil d’automatisation de pentesting

Automatisation de tests de pénétration avec un agent intelligent.

MongoDBChromaDBPython+3
SmartDataFlow – Optimisation des prévisions dans la supply chain
Analytics

SmartDataFlow – Optimisation des prévisions dans la supply chain

Traitement d'événements, windowing et agrégations en temps réel.

SQLApache AirflowPostgreSQL+4
Pipeline de données hospitalières (Diabetes 130)
Data Eng

Pipeline de données hospitalières (Diabetes 130)

Pipeline local de data engineering pour données hospitalières (Diabetes 130) avec ingestion, transformation et orchestration via Airflow, MinIO, PostgreSQL et Python.

PostgreSQLApache AirflowMinio S3+2

Expériences

Missions et réalisations professionnelles

2025-072025-10

Stagiaire IA Engineer

Twisterbird-labs🏢
  • Automatisation des étapes de pentesting via LangGraph.
  • Développement de workflows intelligents pour améliorer l’efficacité des tests de sécurité.
  • Dévéloppement d’un chatbot RAG
LangGraphPythonDockerMongoDBChromaDBGit
2024-062024-07

Stagiaire Data Analyst

🏢Mentorness
  • Analyse et visualisation de données sous SQL Server et Power BI
  • Utilisation de Git pour la collaboration et le partage de code
GitSQLPower BI
2023-072023-08

Technicien Support Système

Nouvelle Parfumerie Gandour🏢
  • Monitoring des bases de données et des applications en production
  • Automatisation de déploiements de containers Docker via scripts Bash
2022-112023-06

Stage - Technicien Support Réseaux

🏢Nouvelle Parfumerie Gandour
  • Gestion du câblage réseau et assistance aux utilisateurs
  • Configuration d’équipements réseau (IP, imprimantes, téléphones)

Certifications

Titres et validations de compétences

Red Hat

Red Hat Certified System Administrator (RHCSA)

Red Hat2024-05

Voir
DataScientist.fr

Bases de Docker pour la conteneurisation

DataScientist.fr2025-02

Voir
Coursera

DevOps Essentials

Coursera2024-09

Voir
Coursera

Data Engineering Essentials

Coursera2025-03

Voir
Hackerrank

SQL Intermédiaire

Hackerrank2023-12

Voir

Expertise Principale

Connaissances en Intelligence Artificielle et Data Engineering acquises à travers des projets académiques et personnels.

Machine Learning

Développement de modèles avec TensorFlow et Keras. Réalisation de projets en Vision par Ordinateur et Traitement du Langage Naturel (NLP) dans le cadre académique.

Ingénierie Big Data

Conception de pipelines ETL et traitement de données volumineuses avec Airflow, Apache Spark et Kafka pour des projets universitaires et personnels.

Developpeur Backend

Création d'API et services backend pour projets scolaires et personnels. Expérience en gestion de bases de données et optimisation de performances.

Contactez-moi

Discutons de vos besoins data

Informations de contact

Discutons de vos projets et de comment je peux vous aider.

Disponible pour freelance & CDI