DATANOSCO

DATANOSCO

Technologie, médias et télécommunications

Versailles, France 940 abonnés

The DATA SOMMELIER

À propos

Similar to how a sommelier helps patrons choose the right wine to enhance their dining experience, a Data Sommelier assists both business and technical leaders in navigating the vast landscape of the data world. Beyond recommending the most relevant and impactful data for informed decision-making, he extends his expertise to technical leaders, aiding them in selecting the right tools to manage and analyze data effectively. The Data Sommelier possesses a nuanced understanding of various data sets, allowing them to recommend optimal « data pairings » tailored to specific business needs. Whether collaborating with business team to align data flavors with organizational objectives or guiding technical team in tool selection, the Data Sommelier brings forth a unique blend of technical proficiency and a refined comprehension of the business context. In doing so, he orchestrates a harmonious data experience that serves the diverse needs of the organization. In Latin, ‘nosco’ means ‘I know’ or ‘I am aware of.’ It is the first person singular form of the verb ‘noscere,’ which is generally translated as ‘to know’ or ‘to be aware.’ This word can be used to express the understanding or recognition of something or someone.

Secteur
Technologie, médias et télécommunications
Taille de l’entreprise
1 employé
Siège social
Versailles, France
Type
Société civile/Société commerciale/Autres types de sociétés
Fondée en
2024
Domaines
Data Strategy

Lieux

Employés chez DATANOSCO

Nouvelles

  • Voir la page d’organisation pour DATANOSCO, visuel

    940  abonnés

    Merci aux 500+ premiers abonnés ! Et déjà plus de 12 épisodes du #datasommelier ! S1E1 👉 Apache #Iceberg, vers un nouveau standard du stockage de la donnée ? avec Victor Coustenoble https://lnkd.in/eDXaW8Ua S1E2 👉 Découverte de The Apache Software Foundation Foundation, avec JB Onofré https://lnkd.in/esbzkhRC S1E3 👉 #FinOps, halte au gaspillage ... où les bonnes pratiques à mettre en place pour optimiser les coûts d'une plateforme data, avec Matthieu Rousseau et Ismael Goulani https://lnkd.in/eWrZvS6z S1E4 👉 Un #Lakehouse dans un cloud français, économiquement abordable et basé sur des composants #opensource interchangeables, c'est possible ? avec Vincent HEUSCHLING https://lnkd.in/evUk-qhh S1E5 👉 Talaxie, le fork Talend Open Studio. L'initiative de Jean Cazaux https://lnkd.in/ekpAxC2T S1E6 👉 De PowerMart à #IDMC, en passant par #PowerCenter, Christophe FOURNEL retrace les 30 dernières années d'Informatica https://lnkd.in/es-5-iH9 S1E7 👉 Le retour des 'Data Platforms'. Interview de Eric Mattern https://lnkd.in/evZ47CMP S1E8 👉 Le projet #Icehouse avec Victor Coustenoble, une plateforme #Lakehouse intégralement gérée, qui combine le moteur de requête #opensource #Trino et Apache Iceberg. https://lnkd.in/eTWmnUk3 S1E9 👉 Retour sur la conférence #Subsurface, organisée par Dremio qui s'est déroulée les 2 et 3 mai 2024 à New York. Charly Clairmont en profite pour nous rappeler ce qu'est Dremio et ses différents cas d'usages. https://lnkd.in/eYWGSyh2 S1E10 👉 La gouvernance de données, c'est d'abord une question organisationnelle ! Daniel MALOT nous parle de son expérience terrain et décrit les étapes nécessaires pour mener à bien un projet de gouvernance en nous faisant découvrir quelques aspects de sa solution META ANALYSIS. https://lnkd.in/eeP7HQw7 S1E11 👉 Pierre Villard retrace l'histoire de la solution Apache NiFi, véritable gateway universelle permettant le développement de pipelines de mouvements de données, aussi bien en mode batch qu'en streaming. https://lnkd.in/e-daVV7n S1E12 👉 Le streaming, une nouvelle façon de penser l'architecture des applications et d'améliorer les usages de la data ! Fred CECILIA constate que le #streaming s'impose naturellement lorsqu'on a vainement essayé d'optimiser les batch existants https://lnkd.in/edM24ybU S1E14 👉 Alexandre Guillemine de chez Foodles nous détaille toutes les étapes de son projet de migration de #PostgreSQL vers Snowflake ! https://lnkd.in/edA9M3qd S1E15 👉 Amphi, un ETL #opensource pour faire du RAG, développé par Thibaut Gourdel ! https://lnkd.in/eQuTgZ6q S1E16 👉 Cloudera, de l'ère Bigdata à l'ère de l'IA, interview de Denis FRAVAL https://lnkd.in/efgh4b6E S1E17 👉 DCP, la Data Platform ClickOps Self Service, avec le témoignage d'EDF. Interview de Frederic Collin et Edouard Rousseaux https://lnkd.in/gKuDQAHG

  • DATANOSCO a republié ceci

    Voir le profil de Ali DARGHOUTH, visuel

    Cloud Data engineer senior | J'aide les entreprises à optimiser coûts et scalabilité pour le traitement de données sur AWS | Certifié par AWS |

    Analytics engineering: - boring for data engineers with software background. - interesting for data analysts. It came up so far in at least 3 conversations. Why? It is centered around DBT and SQL mainly. Data analysts and BI people love sql.(If you don’t, change your job) With DBT, they discover aspects they were not aware of. Which might seem cool to them. Software people usually prefer a programming language. Using DBT, they discover a tool that tries to apply software best practices to SQL. Which in the end is a limitation. Knowing what they can do using code. There will be a bit of frustration. What is your take on this?

    • Aucune description alternative pour cette image
  • Voir la page d’organisation pour DATANOSCO, visuel

    940  abonnés

    L'impact du Medium Code " à la dbt ", ... on en parle ? « Medium Code », un nouveau type de programmation qui se situe entre le « low code » et le « hard code ». On fait le point avec Pierre Pilleyre ! Comment le « Medium Code » modifie la frontière entre les métiers et la technique, en permettant aux professionnels non techniques d'utiliser le code pour répondre à des besoins métier spécifiques. L'échange explore également les avantages et les défis liés à l'utilisation du « médium code » dans les entreprises, notamment en termes de gouvernance et de sécurité. Enfin, on traite la manière dont le « médium code » est en train de transformer le domaine de l'analyse de données, en créant de nouveaux rôles comme celui de « l'analytics engineer ».

    L'impact du Medium Code " à la dbt ", ... on en parle ?

    L'impact du Medium Code " à la dbt ", ... on en parle ?

    www.linkedin.com

  • DATANOSCO a republié ceci

    Voir le profil de Yvan Demumieux, visuel

    🎓Formations IA + Outils IA personnalisés 🔥 Je forme les formateurs à distance | Je crée des outils IA personnalisés à vos défis | Humanisez & Digitalisez vos formations avec efficacité & plaisir 🤩

    La French Tech relève le défi de l'IA souveraine ! L'IA générative est partout, mais elle parle surtout anglais. Les modèles de language, souvent hébergés hors de nos frontières, capturent et traitent nos informations sensibles. La question est simple : voulons-nous confier notre avenir numérique à des acteurs étrangers, ou bâtir une IA souveraine qui respecte nos valeurs ? Ok mais comment réduire notre dépendance aux géants américains et assurer que les données, souvent critiques pour les entreprises et les administrations, restent sous contrôle français ? Face à cette homogénéisation, voici 11 pépites françaises qui défendent une autre vision. Forcément très restrictif, j'ai retenu quelques poids lourds, comme Mistral AI, Hugging Face, Noota, Photoroom… Et j'ai aussi mis en avant des entreprises méritantes moins connues. Plus de 50% des 350 startups françaises recensées en 2024 utilisent déjà l'IA générative. Mais au-delà des performances, c'est sur le terrain de la souveraineté des données que certaines de nos pépites innovent. Que pensez-vous de ces alternatives françaises ? 🤔 mistral.ai/fr 3 modèles open source personnalisables pour une grande variété de cas d’utilisation, téléchargés ou utilisés via leur plateforme. noota.io/fr Une plateforme de prise de note tout-en-un. Enregistrez votre réunion, générez un compte rendu structuré et remplissez votre CRM. Tout en confidentialité. SafeBrain.ai Chat IA privé, sécurisé, et collaboratif adapté aux entreprises. ChatGPT pour entreprises jusqu'à la création de robots experts dédiés à l'automatisation de tâches. dust.tt Créez des assistants IA personnalisés connectés à vos connaissances et données propriétaires pour accélérer votre travail et améliorer les performances de votre équipe jimini.ai IA juridique pour aider les pros du droit : révision de docs, analyse de contrats, recherche juridique et la rédaction de contrats. 365talents.com/fr Plateforme SaaS de conduite du changement RH alimentée en temps réel par l'analyse de l'activité et des compétences clés des équipes grâce au Big Data. lipitt.com Traduisez vos vidéos dans n'importe quelle langue comme s'il s'agissait de l'original, avec des sous-titres, des voix clonées et une synchronisation labiale. botpress.com créer et déployer rapidement et facilement des solutions de chatbot IA personnalisées, même pour ceux qui ont des compétences techniques limitées. huggingface.co/chat La première alternative open source à ChatGPT. Développe des outils une communauté internationale pour développer et utiliser l'apprentissage automatique librement. corolair.com/fr Personnaliser l'expérience d’apprentissage : créer des tuteurs virtuels à partir de tout support de formation, puis les partager dans les LMS photoroom.com Editer, concevoir et optimiser un contenu visuel depuis votre téléphone. #FrenchTech #IA #Innovation #Souveraineté #Tech

    • Aucune description alternative pour cette image
  • DATANOSCO a republié ceci

    Voir le profil de Stéphane Heckel, visuel

    I recently wrote that one couldn't go wrong by driving a BMW or a Mercedes. These are two premium brands, much like Snowflake and Databricks, and that the real choice that a user had to make, was rather between a combustion engine and an electric motor (https://lnkd.in/egyxS-FM). Indeed, choosing a full cloud solution is a bit like choosing a fully electric car. Have you already made that choice to drive all-electric? Have you ever tried to cross France (1000km) on August 15th with your electric car? I've seen numerous interesting articles comparing Snowflake and Databricks, but I believe the real debate is no longer there. Both solutions are robust, proven platforms that integrate AI at the core of their offerings and have competitive roadmaps! 👉 The real question is what these two players will propose beyond the cloud? And we may have the beginning of an answer with Snowflake, which has formed a partnership with Cloudera to leverage the latter's hybrid platform. This collaboration aims to provide customers with a unified hybrid data lakehouse solution, combining Snowflake's cloud expertise with Cloudera's on-premises capabilities. The partnership focuses on integrating Cloudera's Open Data Lakehouse with Snowflake's AI Data Cloud, enabling seamless interoperability between on-premises and cloud environments, thanks to Apache Iceberg ! 👉 This move towards hybrid solutions reflects a growing trend in the industry, where companies are seeking to balance the benefits of cloud computing with the need for on-premises #datamanagement and security. The Snowflake-Cloudera partnership represents a significant step in this direction, offering enterprises more flexibility in their data management strategies and potentially addressing some of the limitations associated with purely cloud-based or on-premises solutions. Also, can we imagine that one day, Snowflake might acquire Cloudera? ;)

    • Cloud and On-premise, best of both worlds with Snowflake and Cloudera
  • DATANOSCO a republié ceci

    Voir le profil de Stéphane Ricoul, visuel

    Expert du numérique et de ses impacts sur notre société | Chroniqueur (TV, podcast et presse écrite) | Auteur (parution en 2025)

    J'ai perdu ma job 😭 C'est ce que pas mal de monde écrira dans LinkedIn, faute de s'être adapté à ce que l'intelligence artificielle nous apporte. Mais je les comprends les craintes. Moi-même, j'ai testé à quelques reprises NotebookLM de Google... pour me dire "Bin coudon' ! Bientôt on va pouvoir me remplacer comme développeur d'affaires 🤦♂️ ". Mais non, ça n'arrivera. Et vous savez pourquoi. Une IA ne sait pas serrer des mains, sourire et avoir un regard franc 🤝 Une IA n'a pas de chaleur humaine 💛 Une IA n'a pas notre sensibilité et notre intuition 👂 Toutes des qualités chez un.e bon.ne dévelopeu.r.se d'affaires. Pour aller un peu loin que ce simple post LinkedIn, je vous invite à lire ma dernière chronique ici ou encore à l'écouter dans le balado #MonCarnet de Bruno Guglielminetti. #EconomieNumérique #IA #Vente #DéveloppementDesAffaires #Job

    J'ai perdu ma job...

    J'ai perdu ma job...

    Stéphane Ricoul sur LinkedIn

  • Voir la page d’organisation pour DATANOSCO, visuel

    940  abonnés

    REPLAY - Meetup DCube, architecture de référence Azure, Snowflake, dbt, Power BI Meetup #moderndatastack organisé, animé et hosté par DCube. On parle d'architecture de référence autour des composants Microsoft Azure, Snowflake, dbt Labs et Power BI Frédéric Brossard, Julien FOURRE, Nicolas Bailly et Fabien TANQUEREL experts data, DevOps et Infra/Sécurité présentent une architecture type cloud native déployée chez plusieurs clients et décrivent les meilleures pratiques pour collecter les données, les stocker, les transformer, les réconcilier et offrir un pilotage analytique adapté aux métiers. Ils traitent tous les aspects d'une architecture data moderne, de la zone bronze à la zone gold, du raffinage et de la qualité des données, en passant par la sécurité, et détaillent l'utilisation des composants suivants : ● Azure Data Factory, Azure Function, Azure Container App, Azure Service Bus, Azure Logs Analytics ● Azure DevOps, pipelines CI/CD yaml et terraform ● Power BI : modèles sémantiques et rapports/dashboards ● Snowflake : compute et stockage des données ● dbt : transformation Ils présentent la genèse de cette architecture en justifiant le positionnement et l’utilisation de ces services par différents cas clients utilisateurs.

    Meetup DCUBE, architecture de référence Azure, Snowflake, dbt, Power BI

    Meetup DCUBE, architecture de référence Azure, Snowflake, dbt, Power BI

    www.linkedin.com

  • DATANOSCO a republié ceci

    Voir la page d’organisation pour Modern Data Stack France, visuel

    2 059  abonnés

    Nous avons le plaisir de nous retrouver chez Criteo le Mercredi 20 novembre 2024 dès 18h30 pour le prochain meetup Modern Data Stack sur le thème de la Composable Data Platform et de l'un de ses composants essentiels : Apache Iceberg Nous remercions les sociétés Dremio et Criteo qui sponsorisent ce meetup. 👉 Première session à 19h00 : Apache Software Foundation, zoom sur les solutions DATA et plus particulièrement sur Apache Iceberg et Apache Polaris (incubating): aujourd'hui et demain JB Onofré, Board Member de The Apache Software Foundation nous fait découvrir les coulisses de la fondation et nous parle des projets tendances qui occupent la scène #DATA, de l'ingestion à la dataviz en passant par le stockage et le streaming, on découvre les projets importants et les nouvelles pépites ! Après cet overview "Apache", on zoom sur Apache Iceberg dans un contexte d'architecture #Lakehouse, nous verrons les évolutions attendues sur la spécification V3 et sur le protocole REST. Ce sera l'occasion de présenter Apache Polaris (Incubating) comme implémentation du protocole REST: les bénéfices et les fonctionnalités permettant d'adresser de nouveaux cas d'usage. 👉 On enchaîne vers 19h30 avec une session en Anglais: Apache Iceberg REST Catalog: Making Catalog Interoperability Happen Alex Merced, Dremio Tech Evangelist will explore the transformative impact of the Apache Iceberg REST Catalog specification, detailing how it fosters greater compatibility and interoperability with various tools across the data ecosystem. Attendees will understand the challenges associated with disparate catalog systems and how the REST Catalog Interface effectively addresses these issues. By standardizing catalog interactions, the REST Catalog specification enhances the robustness and flexibility of the Iceberg ecosystem, enabling seamless integration and management of diverse data sources. Alex will also discuss real-world applications and best practices for leveraging the REST Catalog to optimize data workflows and improve operational efficiency. Talks are a must-attend for #dataengineers, architects, and practitioners eager to drive forward the capabilities of their #composabledataplatform. 👉 De 20h00 à 21h00 drinks & causeries au coin de la DATA (merci à nos sponsors Dremio et CRITEO). Renseignements : Stéphane Heckel Inscriptions : https://lnkd.in/ee89-fJ9

    • Meetup Modern Data Stack, chez Criteo:
Composable Data Platform, zoom sur Apache Iceberg et Apache Polaris,
  • DATANOSCO a republié ceci

    Voir le profil de Sylvain Fagnent, visuel

    Due diligence expert, Architecte SI, expertise nocode/lowcode

    Est ce que l’IA peut chambouler le métier du conseil IT ? Peut-il remplacer notre expertise et notre savoir-faire en se basant sur ses connaissances? Jusqu'où peut-on lui donner notre pleine confiance en ce qu’il répond ? Est ce que les clients vont vers une autonomie sur les questions qu’ils se posent ? Dans cet article nous exposons notre REX avec des vrais morceaux dedans sur l’utilisation de ChatGPT V4 lors de missions de conseils IT. https://lnkd.in/er7i5_qj Nous verrons que tout l’enjeu est dans le domptage de l’outil et qu’il est tout sauf une solution miracle ! Avant pour rechercher des informations nous disions “Google est ton ami” avec tout ce que cela sous-entend de réflexes pour croiser et vérifier les contenus retournés. Désormais, il faudra dire “ChatGPT accélère ta vie”, “Google reste ton ami” et surtout n’oublie pas tes réflexes d’avant.  Nous avons identifié et expérimenté 3 grandes zones où l’IA “augmente” nos capacités au quotidien dans notre métier du conseil IT.  - Accélère tes recherches, aide à l’apprentissage - Recherche rapide d’informations : support à la veille technologique, aide à la prise de décision - Rédaction et présentation de contenu OCTO Technology Lucas HERRADOR Alain Fauré

    • Aucune description alternative pour cette image
  • DATANOSCO a republié ceci

    Voir le profil de Samira BOUADI, visuel

    Chief Data Officer @ BNP Paribas Leasing Solutions

    🚀 La data est un puissant levier de transformation essentiel pour l’IA. Comment l’activer efficacement au sein de nos entreprises ? Lors du salon BIG DATA & AI Paris, j’ai eu l’honneur de participer à un échange inspirant sur la stratégie Data et son rôle crucial dans l’implémentation de l’IA à l’échelle, aux côtés d'Olivier Planson, Chief Architect chez IBM Consulting, et Paul Marcombes, Head of Data chez Nickel.  ✨ Un échange riche qui m’a permis de partager notre vision chez BNP Paribas Leasing Solutions, et de souligner l’importance de la donnée dans la création de valeur ajoutée, tout en renforçant notre agilité à tous les niveaux. 🔑 Voici quelques points clés abordés : • Pourquoi une stratégie Data ? Pour répondre aux enjeux stratégiques autour des données : générer de la valeur ajoutée et accroître l’agilité de l’organisation dans un environnement en perpétuelle évolution.   • Des opportunités passionnantes mais aussi des challenges, notamment sur le plan technologique avec l’acquisition des capacités nécessaires pour exploiter pleinement le potentiel de la data mais aussi la montée en compétences de nos collaborateurs.  • La stratégie Data : une affaire de tous ! Une vision portée par la direction et incarnée par l’ensemble des collaborateurs, favorisant une culture de la donnée partagée pour accélérer la transformation digitale.  #DataCapabilities #IA #DataStrategy #DataQuality #CDO 

Pages similaires