Data Science verstehen
Blogbeiträge, Case Studies und Whitepaper: Erfahren Sie mehr zum Thema Data Science mit unseren Informationen aus Expertenhand. Wie realisiere ich Data-Science-Projekte, wie sieht die richtige IT-Infrastruktur aus und wie lässt sich das Kaufverhalten besser verstehen: Finden Sie genau die Inhalte, die Sie interessieren und erhalten Sie aufschlussreiche Einblicke in Best Practices von Data Science im Unternehmen.
Mit Digitalem Zwilling und KI zu smarten Dienstleistungen in der Solarenergie
Steigerung der Wirtschaftlichkeit und Nachhaltigkeit von Photovoltaiksystemen durch den Einsatz von Data Science.
Mehr lesenAufbau einer Cloud-Infrastruktur mit Terraform & RStudio Server für die Universität Amsterdam
Studierende der UvA erhalten während Prüfungssituationen Zugriff auf einen RStudio-Server mithilfe einer Cloud-Infrastruktur.
Mehr lesenAlgorithmen unterstützte Weiterentwicklung der KOOP-Datenbank
Automatisierter Ausbau des Informationsbestands des Kooperationspartner-Systems für die ANLEI Service GmbH.
Mehr lesenMit Predictive Maintenance zu neuen Kundenservices für Schenck Process
Entwicklung eines „Health Indicator“ auf Basis von Echtzeitdaten zur Erhöhung der Maschinenverfügbarkeiten für die Schenck Process Europe GmbH.
Mehr lesenAufbau einer Analyseumgebung bei der REWE International AG
Implementierung einer leistungsfähigen IT-Infrastruktur auf Basis von R.
Mehr lesenInfrastruktur-Consulting für Modeunternehmen
eoda hat für ein Modeunternehmen eine performante und zuverlässige IT-Infrastuktur für den Produktivbetrieb von R-Analysen implementiert.
Mehr lesenKnowledge Transfer Workshop: RShiny Apps – Deutsche Bahn Analytics
eoda hat das Team von DB Analytics im Rahmen eines Workshops in die Lage versetzt, Analyseergebnisse mit R Shiny schnell und ansprechend zur Verfügung zu stellen.
Mehr lesenEntwicklung eines Scoring-Algorithmus für die databyte® GmbH
eoda unterstützt databyte® bei der Identifizierung von Neukundenpotenzialen.
Mehr lesenPräzise Prognose der Netzverluste für 50Hertz
eoda erstellt mithilfe von Data Mining verlässliche Prognosemodelle zum Ausgleich von Netzverlusten.
Mehr lesenPredictive Maintenance mit Deep Learning
Wir haben für einen Maschinenbauer ein Deep-Learning-Modell entwickelt um Maschinenstörungen verlässlich prognostizieren zu können.
Mehr lesenMit Predictive Maintenance zu digitalen Services für die TRUMPF Lasertechnik
eoda hat TRUMPF Lasertechnik dabei geholfen ihren "Industrie 4.0 - Reifegrad" auf Basis von Daten und Algorithmen zu erhöhen.
Mehr lesenIntegration papierbasierter Prozesse mit SAP
Entwicklung einer Individualsoftware zur automatischen Dokumentenerfassung für die SMA AG.
Mehr lesenImageanalyse für Handball-Bundesligist
Durchführung einer umfassenden Imageanalyse auf Basis einer Fan- und Breitenbefragung für die MT Melsungen.
Mehr lesenSelbstlernende Adressdatenbank
eoda ermöglicht mit seiner selbstlernenden Adressdatenbank addRess den digitalen Kontowechselservice von fino digital.
Mehr lesenCRM-Datenbereinigung für Industrieunternehmen
Unterstützung einer Migration zu Microsoft Dynamics CRM bei einem weltweit führenden Hersteller von Zellulose- und Papierprodukten.
Mehr lesenAutomatisierte Erstellung von individuellen Reports für Einzelhandelsfilialen
eoda hat den Kunden in die Lage versetzt, auf Knopfdruck angepasste Berichte mit individuellen Informationen wie einer Visualisierung des Einzugsgebiets zu generieren.
Mehr lesenCRM-Daten Konsolidierung nach Unternehmensfusion
Bereinigung und Zusammenführung von CRM-Daten nach einer Unternehmensfusion zweier international tätiger Hotelketten.
Mehr lesenOperationalisierung von statistischen Auswertungen
eoda hat eine NPO durch die Einführung von R dabei unterstützt ihr heterogenes Toolset abzulösen, Arbeitsprozesse schlanker zu gestalten und Lizenzkosten einzusparen.
Mehr lesenAutomatische Kategorisierung von Antworten
Entwicklung eines Text-Mining-Algorithmus für die OBI Group.
Mehr lesenKundenanalyse für die VR Bank
eoda bestimmt mit Data-Mining-Verfahren die Affinität der Kunden für spezielle Beratungsthemen und hilft so, Vertriebsprozesse zu optimieren.
Mehr lesenOptimierung Aktionsgeschäft für internationalen Retailer
Wir ermitteln mit Data Mining Muster und Zusammenhänge für die Planung zukünftiger Aktionen.
Mehr lesenAnalyse der Erfolgsfaktoren von Einzelhandelsfilialen
Entwicklung eines Data-Mining-Modells zur Klassifikation von Lebensmittelmärkten anhand der Filial- und Umgebungseigenschaften.
Mehr lesenWarenkorbanalyse für Schulunganbieter
Durch den Einsatz der Warenkorbanalyse die Effizienz der Marketing- und Vertriebsaktivitäten erhöhen.
Mehr lesenPrognose von KPIs auf Basis von Zeitreihen für Versicherer
Durch die Unterstützung von eoda kann der Versicherer sein bislang rein deskriptives Reporting um die zuverlässige Prognose der Produktkennzahlen erweitern.
Mehr lesenText Mining zur Prognose der Strompreisentwicklung
Welche Auswirkungen haben Nachrichtenmeldungen auf die Entwicklung des Strompreises.
Mehr lesenFraud Detection: Betrugsfälle frühzeitig erkennen
Wir haben für einen führenden Dienstleister im Bereich Finance eine Analyse zur Fraud Detection auf Basis des Benford-Gesetzes entwickelt.
Mehr lesenData Science: Wie gehen wir bei eoda vor?
Auf Basis langjähriger Erfahrung in Data Science und unter der Verwendung bewährter Technologien und innovativer Lösungsansätze helfen wir Ihnen, sich bestmöglich im Zeitalter von Big Data aufzustellen.
Mehr lesenEnabling IoT: Die Hintergründe und Erfolgsfaktoren von Data Science in der Industrie.
Die Hintergründe und Erfolgsfaktoren von Data Science in der Industrie.
Mehr lesenData Mining: Die intelligente Nutzung von Big Data
eoda Chief Data Scientist Oliver Bracht erklärt die Grundlagen des Data Mining und das Vorgehen anhand von branchenübergreifenden Use Cases.
Mehr lesenData Science im Unternehmen: Der richtige Einstieg
Erfolgreich, innovativ und machbar: Der richtige Use Case ist der Ausgangspunkt digitaler Erfolgsgeschichten. Erfahren Sie, wie Sie diesen für Ihren erfolgreichen Einstieg in die Themen Data Science und KI finden.
Mehr lesenFederated Learning
Datenhoheit und Datenschutz als Hürden? Erfahren Sie, wie Sie mit Federated Learning schneller zu erfolgreichen KI- und Data Science Projekten kommen - auch bei geringer Datenbasis.
Mehr lesenDatengestützte Mehrwerte im Maschinenbau
Einsatzmöglichkeiten und Strategien für KI und Co. im Maschinen und Anlagenbau.
Mehr lesenVon der Idee bis zur Realisierung: Wie verläuft ein Data-Science-Projekt?
Der Weg von der Idee bis zur erfolgreichen Realisierung und Implementierung eines Data-Science-Projekts.
Mehr lesenData Science in KMU
So gelingt der richtige Einstieg für kleine und mittlere Unternehmen.
Mehr lesenPredictive Maintenance in der Industrie 4.0
Potenziale und Möglichkeiten für Geschäftsmodelle im Digitalzeitalter.
Mehr lesenDie 12 Erfolgsfaktoren von Data Science
Vom optimalen Einstieg bis zur richtigen Kommunikation.
Mehr lesenData Science & KI: Konferenzen 2021
Übersicht über die Konferenzen und Veranstaltungen zu den Themen Data Science und Künstliche Intelligenz.
Mehr lesenVon Wichteln und Algorithmen: Die Geschichte vom Weihnachtsmann
Er ist der Freudenbringer der Weihnachtsfeiertage und der Garant für strahlende Kinderaugen: Der Weihnachtsmann. Wie ihm dies Jahr für Jahr gelingt? Wir haben uns Arbeit des Weihnachtsmanns genauer angeschaut. Herausgekommen ist eine aufschlussreiche Geschichte von Wichteln und Algorithmen.
Mehr lesenData Science Trends 2021
Technologien entwickeln sich ständig weiter und werden mit der Zeit immer besser. Welche Themen kommen in 2021 auf Ihr Unternehmen zu? Wir haben 5 Top Themen für Sie identifiziert.
Mehr lesenAugmented Analytics – Chancen für Unternehmen
Lesezeit: ca. 5 min. Was versteht man unter Augmented Analytics und welches Potenzial birgt der Ansatz für Unternehmen? Wir werfen ein Blick darauf!
Mehr lesenAutoML in der Praxis: Mit YUNA elements ML-Skripte optimal steuern
Lesezeit: ca. 5 min. Als zentrale Ausführungs- und Verwaltungsschicht für ML-Skripte unterstützt YUNA elements Unternehmen dabei, AutoML produktiv und erfolgreich einzusetzen.
Mehr lesenPlan/Apply/Destroy: Cloud-Infrastrukturen mit Terraform - Teil 1
Lesezeit: ca. 4 min. Erfahren Sie was hinter dem Konzept von Terraform steckt. Wir erklären die Funktionsweise und den Projektaufbau, um den Aufbau einer Cloud-Infrastruktur in Ihren DevOps Prozess zu integrieren.
Mehr lesenData Science Framework - YUNA elements jetzt zum Download!
Lesezeit: ca. 1min. Unsere neue Data-Science-Anwendung steht jetzt als Direct-Download zur Verfügung! Jetzt 30 Tage kostenlos und unverbindlich testen!
Mehr lesenWas ist AutoML? Hintergründe, Vorteile und Tools
Lesezeit: ca. 2 min. Schnell und effizient mit AutoML zu Ergebnissen? Wir klären die Hintergründe, die Vorteile und die Frage, ob AutoML die Datenexperten ersetzen kann.
Mehr lesenWas ist ein Data Lake? – Eigenschaften und Vorteile
Lesezeit: ca. 2 min. Erfahren Sie mehr über das Konzept Data Lake und wieso es helfen kann, Datensilos aufzulösen und Advanced Analytics im Unternehmen voranzutreiben.
Mehr lesenOut now: YUNA elements vereinfacht das Betreiben von Analyseprojekten
Lesezeit: ca. 3 min Unsere neue Anwendung vereinfacht den Umgang mit Datenprodukten – beim Betreiben und beim Zusammenarbeiten mit verschiedenen Teams, Skriptsprachen und sogar Freelancern. Erfahren Sie mehr!
Mehr lesenUse Cases von Data Science und KI im Maschinenbau - Teil 2
Lesezeit: ca. 3 min. Predictive Ordering, Beschaffungsoptimierung oder Next Best Offer: Auch über die Maschinendaten hinaus gibt es im Maschinenbau interessante Analytik-Use-Cases.
Mehr lesenUse Cases von Data Science und KI im Maschinenbau - Teil 1
Lesezeit: ca. 3 min. Predictive Maintenance, automatische Maschinenkonfigurationen oder das Qualitätsmanagement: Der Maschinenbau bietet viele spannende Anwendungsfälle für Data Science und KI.
Mehr lesenGründe warum Data-Science-Projekte nicht immer erfolgreich sind – Teil 1
Lesezeit: ca. 3min. Warum passiert es, dass Data-Science-Projekte nicht den Erfolg mit sich bringen, den man sich nach langer Planung verspricht? Wir beleuchten einige Faktoren!
Mehr lesenMit Data Science Kundenbewertungen besser nutzen
Lesezeit: ca. 2 min. Produktrezensionen, Unternehmensbewertungen oder Social Media Posts: Mit Data Science können Unternehmen ihr Reputationsmanagement professionalisieren.
Mehr lesenWas ist Federated Learning? Hintergründe und Anwendungsbeispiele
Lesezeit: ca. 3 min. Viele Data Science Initiativen scheiten an einer zu geringen Datenbasis. Federated Learning kann die Lösung für dieses Problem sein - gerade vor dem Hintergrund von Datenhoheit und Datenschutz.
Mehr lesenLong short-term memory: Hintergründe und Best-Practice-Ansätze für LSTM
Lesezeit: ca. 5 min. Tutorial zur Realisierung von LSTMs vom Data Pre-Processing bis zur Spezifikation mit Keras und TensorFlow.
Mehr lesenShiny: Performance Tuning mit future & promises – Die Praxis
Lesezeit: ca. 4 min. In unserem praxisnahen Blogbeitrag zeigen wir anhand einer Beispiel-App, wie sich mit future/promises Apps trotz aufwändiger Aufgaben reaktiv halten lassen. Versuchen Sie es selbst!
Mehr lesenLong short-term memory: Anwendungsbeispiele von LSTM im Unternehmen
Lesezeit: ca. 3 min. LSTM steht für eine spezielle Weiterentwicklung künstlicher neuronaler Netze, die aufgrund ihrer Eigenschaften in vielen Bereichen ein großes Potenzial für Unternehmen haben kann.
Mehr lesen"Data Science" im Support - Eat your own dogfood
Lesezeit: ca. 3 min Nicht nur unser Marketing, auch unser Support hat sich YUNA vorgenommen und zur eigenen Lösung umfunktioniert. Wie das geht? Erfahren Sie es hier!
Mehr lesenOnline R-Trainings: Data Science lernen - live und interaktiv
Lesezeit ca. 2 min. Online-Konzerte, Online-Fitnesskurse, Online-Yoga – und auch wir bringen unsere beliebten R Trainings ins Internet! Nutzen Sie unsere Online Trainings und werden Sie zum R-Experten!
Mehr lesen10 Gründe für YUNA
Lesezeit ca. 3 min. Welche Vorteile hat YUNA und wie kann es Ihnen helfen Datenanalysetechnisch so richtig durchzustarten? Erfahren Sie es hier!
Mehr lesenShiny: Performance Tuning mit future & promises – Die Theorie
Im Zuge immer komplexer werdender Analyse-Apps, steigen auch die Anforderungen an die Entwickler, um den Status-Quo für Performance und Verfügbarkeit aufrecht zu erhalten. Wir befassen uns mit der Architektur der Shiny-Apps und werfen einen Blick auf die Pakete future & promises!
Mehr lesenShiny: Performance Tuning mit future & promises – Die Theorie
Lesezeit: ca. 3 min. Im Zuge immer komplexer werdender Analyse-Apps, steigen auch die Anforderungen an die Entwickler, um den Status-Quo für Performance und Verfügbarkeit aufrecht zu erhalten. Wir befassen uns mit der Architektur der Shiny-Apps und werfen einen Blick auf die Pakete future & promises!
Mehr lesenLiebe Data Scientists - erleichtert euch die Arbeit!
Lesezeit: ca. 3 min. Ihr habt den besten Jobs aller Zeiten! Gleichzeitig müsst Ihr enorm hohe Erwartungen erfüllen - erfahrt, wie eine Data Science Plattform Eure Arbeit erleichtern kann!
Mehr lesenMit Data Science zu mehr Nachhaltigkeit im Unternehmen
Data Science kann Unternehmen dabei helfen, ihren Ressourceneinsatz zu optimieren und damit nachhaltiger und wirtschaftlich erfolgreicher zu agieren.
Mehr lesenWie sich Shiny und YUNA gegenseitig ergänzen
Lesezeit: ca. 4 min. Shiny-Apps® haben viele Vorteile. Im Zusammenspiel mit YUNA werden die Vorteile noch weiter verstärkt. Erfahren Sie mehr!
Mehr lesenShiny: Load Testing und Horizontale Skalierung
Lesezeit: ca. 4 min. Erfahren Sie wie ein detailliertes Load-Testing eine wichtige Hilfestellung leisten kann, um potenzielle Schwachstellen früh genug zu erkennen und zu beseitigen, bevor die Applikation in den Produktivbetrieb geht.
Mehr lesenDie 5 Data Science Trends 2020
Lesezeit: ca. 2min. Welche Themen kommen in 2020 auf Ihr Unternehmen zu? Wir haben die wichtigsten Trends im Umfeld von KI und Data Science für Sie identifiziert.
Mehr lesenSchön‘ juten Tach & Moin Moin: R-Trainings in Berlin & Hamburg
Lesezeit: ca. 2 min. Data Science Kurse in Berlin und Hamburg – Im April und Oktober 2020 bringen wir unsere beliebten R-Trainings in die deutschen Großstädte. Werden Sie mit uns zum Data-Science-Experten mit R!
Mehr lesen"Data Science" im Marketing - Eat your own dogfood
Lesezeit: ca. 4 min. Was passiert, wenn man eine Data-Science-Plattform und einen Marketer ohne Softwareentwicklungs- und Data-Science-Skills zusammenbringt? Hier erfahren Sie es!
Mehr lesenData Science und KI: Konferenzen 2020
Lesezeit: ca. 2min. Welche wichtigen Veranstaltungen gibt es im deutschsprachigen Raum 2020 rund um die Themen KI und Künstliche Intelligenz. Wir zeigen es Ihnen.
Mehr lesenSo baut man Data Science Plattformen - Teil 5: Datenvisualisierung und belastbare Ergebnisse
Lesezeit: ca. 2min. Was muss bei der Visualisierung von Ergebnissen und Daten beachtet werden? Wir werfen einen Blick darauf!
Mehr lesenDatenstrategie: Wegweiser zu digitalen Erfolgen
Lesezeit: ca. 5min. Eine Datenstrategie stellt die systematische Datennutzung in den Mittelpunkt der Ausrichtung eines Unternehmens. Mindset, Kompetenzen, Tools oder die Datenbasis: Wir stellen die wichtigsten Bausteine einer erfolgreichen Strategie vor.
Mehr lesenSo baut man Data Science Plattformen - Teil 4: Datenbankskalierbarkeit und Geschäftsmodelle
Lesezeit: ca. 2min. Dieses Mal: Verschiedenste Datenquellen anbinden und daraus neue Use Cases und ganze Geschäftsmodelle entwickeln.
Mehr lesenSo baut man Data Science Plattformen - Teil 3: Individualisierbare Workflows und Dashboards
Lesezeit: ca. 2min. Was wäre, wenn die einzelnen Projektschritte sich nach dem Unternehmen richten würden und man einzelne Dashboards wiederverwenden könnte?
Mehr lesenSo baut man Data Science Plattformen - Teil 2: Intelligentes Benutzer- und Rollenkonzept
Lesezeit: ca. 2min. Warum sind Nutzer- und Rollenrechten ein nicht zu unterschätzender Faktor bei Data Science Plattformen?
Mehr lesenSo baut man Data Science Plattformen - Teil 1: UI & Teams
Lesezeit: ca. 2min. Welche Faktoren müssen von modernen Data Science Plattformen erfüllt werden?
Mehr lesenVersion management - The uncomplicated work on a common project
Version management is a central tool for project management. Learn more about how Git can help you work more efficiently on joint projects.
Mehr lesenVersionsverwaltung – Die unkomplizierte Arbeit am gemeinsamen Projekt
Lesezeit: ca. 4min. Die Versionsverwaltung stellt ein zentrales Tool für das Projektmanagement dar. Wie Sie mit Git effizienter an gemeinsamen Projekten arbeiten können, erfahren Sie hier!
Mehr lesenData Science Adventskalender
Wir nehmen Sie mit auf eine Reise durch 24 wunderbare Beispiele, in denen Data Science geholfen hat unsere Welt ein Stückchen besser zu machen.
Mehr lesenRepositories: Good package management in production systems
A good package management in productive systems and a fully functional infrastructure are the basis for a complication-free development environment. Moreover, the package management easily describes how to work with repositories properly.
Mehr lesenPackage Management: Einsatz von Repositories in Produktivsystemen
Lesezeit: ca. 4min. Ein gutes Paketmanagement in Produktivsystemen und eine voll funktionsfähige Infrastruktur sind die Basis für eine komplikationsfreie Entwicklungsumgebung. Wie man mit Repositories richtig arbeitet erfahren Sie hier!
Mehr lesenAnsible: Infrastruktur als Code
Lesezeit: ca. 3min. Mit Ansible lassen sich IT-Infrastrukturen automatisieren, sodass ein manueller Eingriff nicht mehr nötig ist. In unserem Blogartikel zeigen wir Ihnen anhand ausgewählter Beispiele, wie sich eine automatisierte Infrastruktur-Konfiguration umsetzen lässt.
Mehr lesenFilter, die Analystenherzen höher schlagen lassen
Lesezeit ca. 4min. Filter in der Analytik können spannend sein! Wir zeigen ungeahnte Höhen auf, was mit Filtern in YUNA möglich ist.
Mehr lesenKubernetes: Horizontale Skalierung von Data-Science-Anwendungen in der Cloud
Lesezeit: ca. 2min. Aufgrund des stetigen Datenwachsums und den immer komplexer werdenden Anforderungen an eine IT-Infrastruktur, ergeben sich stets neue Herausforderungen für Data Scientists und Data Engineers. Ein möglicher Lösungsansatz ist die Verbindung des RStudio Job Launchers mit einem Kubernetes-Cluster: In unserem Blogartikel erfahren Sie die Vorteile!
Mehr lesenR, Python & Julia in Data Science – Ein Vergleich
Lesezeit: ca. 3min. R, Python oder Julia? Mittlerweile existieren zahlreiche Programmiersprachen, doch welche sich für den eigenen Bedarf eignet ist teils noch unklar. Wir geben Ihnen eine Empfehlung!
Mehr lesenEinfacher Datenzugang: Die Vorteile der einmaligen Datenbankverbindung mit ODBC und DBI
Lesezeit: ca. 2min. Ein optimaler Datenzugang ist besonders wichtig für die Arbeit der Data Scientists, da dieser ihnen einen schnellen und effizienten Zugriff auf die relevanten Daten ermöglicht.
Mehr lesenData science courses with R in Frankfurt!
In November 2019, we bring our popular courses „Introduction to R“ and „Introduction to Machine Learning with R“ to Frankfurt.
Mehr lesenAnomalieerkennung in Zeitreihen: Welcher Algorithmus ist der Richtige?
Lesezeit: ca. 3min.Welche Arten von Anomalien in Daten gibt es? Was sind die Nachteile statischer Grenzwerte? Wie können Clusteralgorithmen zum Einsatz kommen? Erfahren Sie es.
Mehr lesenAusreißer in der Datenflut: Mit der Anomalieerkennung Maschinenausfälle vermeiden
Lesezeit: ca. 3min. Anomaly Detection ist einer der Grundpfeiler von Predictive Maintenance. Wie die Anomalieerkennung funktioniert? Erfahren Sie es hier.
Mehr lesenAuthentifizierung und Autorisierung: Datensicherheit für Data-Science-Umgebungen
Lesezeit: ca. 4min. Erfahren Sie mehr über Konzepte zur Benutzerverwaltung, zur Vergabe von Zugriffsrechten und ihrer Abbildung im Active Directory.
Mehr lesenEi Gude! - Data Science Kurse mit R in Frankfurt
Data Science Kurse in Frankfurt! Im November ist es soweit: Wir bringen unsere beliebten R-Trainings nach Südhessen.
Mehr lesen[R]eady for production: Rückblick auf das Data-Science-Event 2019 mit RStudio und eoda
Das Data-Science-Event 2019 von RStudio und eoda stand ganz im Zeichen des produktiven Einsatzes von Data Science.
Mehr lesenKonsum von Margarine beeinflusst Scheidungsraten
Data Scientists von eoda decken auf: Mit einem erhöhten Konsum von Margarine steigen die Scheidungsraten im amerikanischen Bundesstaat Maine. Es liegt also ein Zusammenhang zwischen diesen Variablen vor.
Mehr lesenEntwicklungsumgebungen: Welche ist die richtige für R und Python?
RStudio, Jupyter, PyCharm, VS Code oder Spyder: Wir stellen Ihnen führende IDEs für Data Science mit Python und R vor.
Mehr lesenFeature-Engineering Preisindizes: Kaufverhalten verstehen
Lesezeit: ca. 3 min. Wir erklären das Feature Engineering anhand von Preisindizes zur Durchführung einer Kundensegmentierung.
Mehr lesenDas Beste vereint? Wie die Programmiersprache Julia den Markt erobern will
Wir stellen Ihnen die Programmiersprache Julia vor und zeigen, was sie gerade für Data Science so interessant macht.
Mehr lesenB wie Bias
Algorithmus, Bias, Clusteranalyse – für Data Scientists gehören diese Begriffe ganz natürlich zum täglichen Arbeitsleben dazu. Wir erklären sie!
Mehr lesenFlexdashboard: Einfache HTML-Dashboards mit R
Die Analyse steht, doch die visuelle Untermalung der Analyse zum besseren Verständnis oder als Projektabschluss für die Fachabteilungen steht noch aus. Nichts leichter als das: Mit dem Flexdashboard-Paket als R-Markdown-Output
Mehr lesenDas erfolgreiche Data-Science-Projekt: Wie funktioniert es?
Wie verläuft ein Data-Science-Projekt? Wir erklären es in diesem Blogbeitrag.
Mehr lesenÖffentlich verfügbare Datensätze: Mit „Titanic“ auf der Suche nach der Wahrheit – musste Jack wirklich sterben?
Daten gelten als das Gold des 21. Jahrhunderts. Im Rahmen dieser Blogserie stellen wir besondere Datenschätze vor – frei verfügbar, thematisch interessant und für den Einsatz unterschiedlicher Analysen geeigne
Mehr lesenProfessioneller R Code – einfach eigene Pakete erstellen und dokumentieren
Selbst in kleineren R-Projekten fällt schnell eine Vielzahl selbst geschriebener Funktionen an. Der Ordnung halber möchte man deren Definition und Beschreibung möglichst aus dem eigentlichen Arbeitsskript heraushalten.
Mehr lesenVeracity – Sinnhaftigkeit von Big Data als Kernherausforderung im Informationszeitalter
Veracity ist eines der 5 V's von Big Data und bezieht sich auf die Sinnhaftigkeit der Daten und der daraus resultierenden Ergebnisse.
Mehr lesenText Mining mit R – „unstrukturierte“ Daten analysieren
Das Bewusstsein für die Bedeutung von Daten und die damit verbundenen Werte ist in den letzten Jahren stetig gestiegen.
Mehr lesenZeitreihenanalyse mit R – Entscheidungsgrundlage und Potentialfaktor
Prognosen über Börsenkurse, das Wetter oder die Arbeitslosenquote – täglich begegnen uns im Alltag Vorhersagen über zukünftige Ereignisse und Entwicklungen. In vielen Bereichen sind Vorhersagen zu wichtigen Grundlagen für unser Handeln geworden
Mehr lesenClusteranalyse in der Kundensegmentierung
Lesezeit: ca. 3 min. Die Clusteranalyse in der Kundensegmentierung hilft Kunden besser zu verstehen und zielgerichteter anzusprechen.
Mehr lesen