Einfach Beweglich Durchschnitt Vba


Moving Average Dieses Beispiel lehrt Sie, wie Sie den gleitenden Durchschnitt einer Zeitreihe in Excel berechnen können. Ein gleitender Durchschnitt wird verwendet, um Unregelmäßigkeiten (Gipfel und Täler) zu glätten, um Trends leicht zu erkennen. 1. Zuerst schauen wir uns unsere Zeitreihen an. 2. Klicken Sie auf der Registerkarte Daten auf Datenanalyse. Hinweis: Kann die Schaltfläche Datenanalyse nicht finden Hier klicken, um das Analysis ToolPak-Add-In zu laden. 3. Wählen Sie Moving Average und klicken Sie auf OK. 4. Klicken Sie in das Feld Eingabebereich und wählen Sie den Bereich B2: M2. 5. Klicken Sie in das Feld Intervall und geben Sie 6 ein. 6. Klicken Sie in das Feld Ausgabebereich und wählen Sie Zelle B3. 8. Zeichnen Sie einen Graphen dieser Werte. Erläuterung: Da wir das Intervall auf 6 setzen, ist der gleitende Durchschnitt der Durchschnitt der bisherigen 5 Datenpunkte und der aktuelle Datenpunkt. Dadurch werden Gipfel und Täler geglättet. Die Grafik zeigt einen zunehmenden Trend. Excel kann den gleitenden Durchschnitt für die ersten 5 Datenpunkte nicht berechnen, da es nicht genügend vorherige Datenpunkte gibt. 9. Wiederholen Sie die Schritte 2 bis 8 für Intervall 2 und Intervall 4. Fazit: Je größer das Intervall, desto mehr werden die Gipfel und Täler geglättet. Je kleiner das Intervall ist, desto näher sind die gleitenden Mittelwerte auf die tatsächlichen Datenpunkte. True Targe Range Spreadsheet 038 Tutorial Entdecken Sie, wie Händler den durchschnittlichen wahren Bereich als Stop-Loss-Indikator beim Kauf von Amp-Verkaufstrategien verwenden und erfahren, wie es in Excel berechnet wird . Ein Bestand8217s Bereich ist die Differenz zwischen dem maximalen und minimalen Preis an jedem einzelnen Tag und wird häufig als ein Indikator der Volatilität verwendet. Allerdings wird der Handel oft gestoppt, wenn die Preise an einem einzigen Tag um einen großen Betrag ansteigen oder abnehmen. Dies wird manchmal im Rohstoffhandel beobachtet und kann zwischen zwei aufeinanderfolgenden Tagen zu einer Lücke zwischen den Eröffnungs - und Schlusspreisen führen. Ein Tagesbereich würde diese Informationen nicht unbedingt erfassen. J. Welles Wilder stellte 1978 eine echte Reichweite und eine durchschnittliche wahre Reichweite ein, um dieses Verhalten besser zu beschreiben. Die wahre Reichweite erfasst den Unterschied zwischen Schluss - und Eröffnungspreisen zwischen zwei aufeinanderfolgenden Tagen. True Bereich ist der größte der Unterschied zwischen gestern8217s schließen und heute8217s niedrig der Unterschied zwischen gestern8217s schließen und heute8217s hoch der Unterschied zwischen today8217s hoch und today8217s niedrig Der Anfangswert der wahren Bereich ist einfach die tägliche hoch minus der täglichen niedrigen. Der durchschnittliche wahre Bereich (ATR) ist ein exponentieller n-Tag-Durchschnitt. Und kann durch diese Gleichung angenähert werden. Wo n ist das Fenster des gleitenden Durchschnittes (in der Regel 14 Tage) und TR ist die wahre Reichweite. ATR wird in der Regel initialisiert (bei t 0) mit einem n-Tage-nachlaufenden Durchschnitt von TR. Durchschnittliche wahre Reichweite zeigt nicht die Richtung des Marktes, sondern einfach die Volatilität. Die Gleichung gibt der jüngsten Preisbewegung eine größere Bedeutung, daher wird sie zur Messung der Marktstimmung verwendet. Es wird gewöhnlich verwendet, um das Risiko einer bestimmten Position auf dem Markt zu analysieren. Eine Möglichkeit, dies zu tun, ist die Vorhersage von täglichen Bewegungen auf der Grundlage historischer Werte von ATR, und geben oder verlassen den Markt entsprechend. Zum Beispiel kann ein täglicher Stop-Loss auf das 1,5- oder 2-fache des durchschnittlichen wahren Bereichs eingestellt werden. Dies gibt einen Vermögenspreis Freiheit, um natürlich während eines Handelstages zu variieren, aber immer noch eine vernünftige Ausgangsposition. Darüber hinaus, wenn die historische durchschnittliche wahre Strecke Verträge, während die Preise nach oben tendieren, dann könnte dies darauf hindeuten, dass die Marktstimmung sich wenden kann. Kombiniert mit Bollinger Bands. Durchschnittliche wahre Reichweite ist ein effektives Instrument für volatilitätsbasierte Handelsstrategien. Berechnen Sie die durchschnittliche True Range in Excel Diese Excel-Tabelle verwendet täglich Aktienpreise für BP für die fünf Jahre ab 2007 (heruntergeladen mit dieser Kalkulationstabelle). Die Kalkulationstabelle ist vollständig mit Gleichungen und Kommentaren kommentiert, um Ihr Verständnis zu unterstützen. Die folgende Kalkulationstabelle hat jedoch viel mehr smarts. Es automatisch, zeichnet die durchschnittliche wahre Reichweite, die relative Stärke Index und die historische Volatilität aus Daten, die es automatisch von Yahoo Finance herunterlädt. Sie geben die folgenden Informationen ein Stock Ticker ein Start-und Enddatum Berechnungsperioden für die ATR, RSI und historische Volatilität Nach dem Klicken auf eine Schaltfläche, die Kalkulationstabelle Download Aktienkurse von Yahoo Finance (speziell die täglichen offenen, enge, hohe und niedrige Preise zwischen Die beiden daten). Es zeigt dann die durchschnittliche wahre Reichweite und die historische Volatilität. It8217s sehr einfach zu bedienen I8217d Liebe zu hören, was Sie denken, oder wenn Sie irgendwelche Verbesserungen you8217d wie haben. 11 Gedanken auf ldquo Durchschnitt True Range Spreadsheet 038 Tutorial rdquo Wie die kostenlosen Spreadsheets Master Wissensbasis Aktuelle BeiträgeNeed Excel Consulting und Data Mining Services Sind Sie mit einer dieser Herausforderungen konfrontiert Die Notwendigkeit, ein Excel-Makro zu erstellen, um eine wichtige Aufgabe zu tun Eine repetitive Job in Excel, das Stunden oder Tage dauert, um manuell zu machen Being gebeten, ein Excel-Makro zu erstellen, um einen großen Bedarf zu lösen Die Notwendigkeit, rohe Daten in nützliches Excel-Format zu konvertieren Die Notwendigkeit, ein Excel-Makro für die Verwendung von vielen Menschen in Ihrem Unternehmen zu erstellen Eine enge Frist Unsere Dienstleistungen beinhalten, sind aber nicht beschränkt auf: Datenbank-Programmierung Bericht Automation Reporting Daten Manipulation und Konvertierung Datenbank Marketing Daten Audit Excel VBA Programmierung Daten Cleansing Data Mining und Prognose Datenintegration Finanzmodellierung Query Taschenrechner und Tools Kundenspezifische Excel-Funktionen Spreadsheet und Datenbank-Design Wenn Sie sind, wir Kann Ihnen helfen Wir können: Mit qualitativ hochwertigen Aufgaben reichen von der einfachen bis zur schwierigen. Verbesserungen und Verbesserungen vorschlagen Tu das für kleine und große Jobs. Machen Sie das zu einem vernünftigen Preis. Liefern Sie das Makro schnell und pünktlich. Lesen Sie weiter Nehmen Sie den nächsten Schritt und kontaktieren Sie uns. Es dauert nur wenige Minuten: Nutzen Sie unser Kontaktformular, um uns über unsere Excel-Beratung und Datendienste zu kontaktieren. Geben Sie uns eine kurze Beschreibung Ihrer Notwendigkeit. Gut in Verbindung treten mit Ihnen innerhalb der Stunden in den meisten Fällen. Testimonials Excel Business Solutions bietet zuverlässige und professionelle Unterstützung bei der Entwicklung von Tools für Projektmanager in unserem Unternehmen. Die Tatsache, dass Anthony und sein Team Lösungen für komplexe Aufgaben bieten, machen ihn zu einem unschätzbaren IT-Experten. Ich empfehle Excel Business Solutions - Batoor Khan, ATB Austria - Excel Business Solutions ist auf alle Herausforderungen gestoßen, die ich ihnen gestellt habe, und maßgeschneiderte Lösungen für unsere einzigartigen Anforderungen, die EXCEL für unsere Analysten funktionaler macht. - Dr. Stephen St. George-Smith, PICR, Großbritannien - Anthony und sein Team konnten sehr leistungsstarke und dennoch leicht zu bedienende Pivot-Tische erstellen, die bei der Entwicklung unserer Business Analytics geholfen haben. - Joe C. Stone Oak Underwriters, LLC. USA. - Excel Business Solutions hat mir ZEIT, Geld und Frustration gerettet. Intelligente Menschen umgeben sich mit kompetenten Leuten. - Jim H. Whitman County Assessors Büro. USA - Danke an Anthony für seine Experten Excel Fähigkeiten und erstaunliche Turnaround Zeit. Ich komme, um ihn zu meinem IT Genius zu nennen und ihm mehrere Projekte gegeben zu haben, die konsequent hervorragende Ergebnisse liefern. Ich finde ihn durch eine Internet-Suche, war wie das Finden von Gold im Heuhaufen. Danke noch einmal. - Lee Altschuler-Gesetz. USA - Einer unserer Hightech-Fortune-100-Kunden reichte uns einen sehr komplizierten Bericht und bat uns, es benutzerfreundlicher zu machen. Excel Business Solutions stellte eine elegante Lösung für eine sehr anspruchsvolle Aufgabe. Sie übertrafen unsere Erwartungen und unser Klient wurde weggeblasen - Sparky Witte, Kolar Advertising Marketing. USA - Wie kann Excel-Programmierung für Sie arbeiten Seit 1993 enthält Excel Visual Basic für Applikationen (VBA), eine Programmiersprache, die auf Visual Basic basiert, was die Möglichkeit gibt, Aufgaben in Excel zu automatisieren und benutzerdefinierte Funktionen (UDF) zur Verwendung bereitzustellen In Arbeitsblättern. VBA ist eine leistungsstarke Ergänzung zu Excel. Excel-Makros sind Programme, die eine Reihe von Befehlen speichern, die Sie die Aktionen wiedergeben können. Sie können die Anzahl der Schritte reduzieren, die erforderlich sind, um Aufgaben zu vervollständigen und die Zeit zu verdoppeln, die Benutzer die Erstellung, Formatierung, Änderung und das Drucken ihrer Kalkulationstabellen ausgeben. Ein Makro kann so einfach sein wie das Replizieren von Formatierungsaufgaben oder so komplex wie das Abfragen von Informationen aus verschiedenen Datenquellen durch Datenbankprogrammierung. Beispiel: Ein Finanzanalytiker lädt täglich Finanztabellen aus dem Internet für Analysen und Reporting generiert. Sie deckt 30 Aktien für die Computerindustrie ab. Jeden Tag nimmt sie die Zahlen aus den Tischen auf, führt einige finanzielle Verhältnisanalysen durch und gibt die Verhältnisse in verschiedene Berichte ein. Sie muss diese Wiederholungsaufgaben für jede der 30 Unternehmen, die sie abdeckt, machen. Diese Aufgaben nehmen die meiste Zeit im Büro auf. Mit Hilfe eines Beratungsdienstes ist sie nun in der Lage, alle Berichte in wenigen Minuten fertig zu stellen, was ihr mehr Zeit gibt, ihre Berichte zu schreiben und sich zu entspannen. Datenqualität bezieht sich auf die Qualität der Daten. Die Daten sind von hoher Qualität, wenn sie für ihre Verwendungszwecke in Betrieb, Entscheidungsfindung und Planung (J. M. Juran) geeignet sind. Alternativ werden die Daten als von hoher Qualität angesehen, wenn sie das real-world-Konstrukt, auf das sie sich beziehen, korrekt darstellen. Eine Branchenstudie schätzte die Gesamtkosten für die US-Wirtschaft von Datenqualitätsproblemen bei über US600 Milliarden pro Jahr (Eckerson, 2002). In der Tat ist das Problem ein solches Anliegen, dass Unternehmen beginnen, ein Data Governance Team einzurichten, dessen alleinige Rolle in der Gesellschaft für die Datenqualität verantwortlich sein soll. Obwohl die meisten Unternehmen dazu neigen, ihre Qualitätsbemühungen auf Namens - und Adressinformationen zu konzentrieren, wird die Datenqualität als eine wichtige Eigenschaft aller Arten von Daten anerkannt. Der Datenqualitätsprozess kann einige oder alle der folgenden umfassen: Datenprofilierung - anfänglich die Bewertung der Daten, um ihre Qualitätsansprüche zu verstehen. Daten-Standardisierung - eine Business-Regel-Engine, die sicherstellt, dass Daten den Qualitätsregeln entsprechen. Matching oder Linking - eine Möglichkeit, Daten zu vergleichen, so dass ähnliche, aber etwas unterschiedliche Datensätze ausgerichtet werden können. Matching kann Fuzzy-Logik verwenden, um Duplikate in den Daten zu finden. Es erkennt oft, dass Bob, Bobby, Rob und Robert die gleiche Person sein können. Monitoring - Verfolgung der Datenqualität über die Zeit und Berichterstattung Variationen in der Qualität der Daten. Data Mining entdeckt Muster in Daten mit prädiktiven Techniken. Diese Muster spielen bei der Entscheidungsfindung eine entscheidende Rolle. Mit Data Mining, Unternehmen und Organisationen können die Rentabilität ihrer Unternehmen durch die Aufdeckung von Chancen und die Erkennung von potenziellen Risiken zu erhöhen. Prognose ist Bestandteil des Data Mining. Es ist der Prozess der Schätzung in unbekannten Situationen. Vorhersage ist ein ähnlicher, aber allgemeinerer Begriff und bezieht sich in der Regel auf die Schätzung von Zeitreihen, Querschnitts - oder Längsdaten. Vorhersage wird häufig in der Diskussion von Zeitreihen-Daten verwendet. Beispiel: Eine Midwest-Lebensmittelkette verwendet Data Mining-Methode, um lokale Kaufmuster zu analysieren. Sie entdeckten, dass, als Männer Donnerstags und Samstags Windeln kauften, tendierten sie auch dazu, Bier zu kaufen. Weitere Analysen zeigten, dass diese Käufer in der Regel ihre wöchentlichen Lebensmittelgeschäft einkaufen samstags. Donnerstags aber haben sie nur ein paar Gegenstände gekauft. Der Händler kam zu dem Schluss, dass sie das Bier gekauft haben, um es für das kommende Wochenende zu haben. Die Lebensmittelkette konnte diese neu entdeckten Informationen auf verschiedene Weise nutzen, um den Umsatz zu steigern. Zum Beispiel könnten sie das Bier-Display näher an die Windel-Display zu bewegen. Und sie konnten sicherstellen, dass Bier und Windeln donnerstags zum vollen Preis verkauft wurden. Datenbank-Marketing betont die Verwendung von statistischen Techniken und Datenanalysen, um Modelle des Kundenverhaltens zu entwickeln, die dann verwendet werden, um Kunden für die Kommunikation auszuwählen. Der Vorteil der Datenbank-Marketing ist die Fähigkeit, Ihre Marketing-Bemühungen Ziel. Unternehmen können ihre Marketing-Bemühungen auf Kunden konzentrieren, die am ehesten zu kaufen sind. Beispiel: Ein Internet-Marketing-Unternehmen sponsert eine Messe in Houston. Anstatt Einladungen an Tausende von ihren Kunden um die Vereinigten Staaten zu senden, führt das Unternehmen eine Abfrage in seiner Marketing-Datenbank und extrahiert eine Liste der Kunden in der Houston Metro-Bereich. Das Unternehmen sendet dann sein Einladungspaket an diese Zielliste. Microsoft Excel und VBA Excel ist eine leistungsfähige Kalkulationstabelle können Sie speichern, manipulieren, analysieren und visualisieren Daten. Es verfügt über eine intuitive Benutzeroberfläche und fähige Berechnungs - und Grafik-Tools, die Excel zu einem der beliebtesten Mikrocomputer-Anwendungen gemacht haben. Es ist überwiegend die dominante Kalkulationstabelle für diese Plattformen und ist seit der Version 5 im Jahr 1993 und seine Bündelung als Teil von Microsoft Office. Excel hat Visual Basic für Applikationen (VBA) enthalten, eine Programmiersprache basierend auf Visual Basic, die die Möglichkeit zur Verwaltung von Aufgaben in Excel hinzufügt und benutzerdefinierte Funktionen (UDF) für die Verwendung in Arbeitsblättern bereitstellt. VBA ist eine leistungsstarke Ergänzung der Applikation, die in späteren Versionen eine voll funktionsfähige integrierte Entwicklungsumgebung (IDE) beinhaltet. Die Makroaufnahme kann VBA-Code erzeugen, der Benutzeraktionen repliziert und so eine einfache Automatisierung von regulären Aufgaben ermöglicht. VBA ermöglicht die Erstellung von Formularen und In-Workset-Steuerelementen, um mit dem Benutzer zu kommunizieren. Die Sprache unterstützt die Nutzung (aber nicht die Erstellung) von ActiveX (COM) DLLs spätere Versionen Unterstützung für Klassenmodule, die die Verwendung von grundlegenden objektorientierten Programmier - (OOP-) Techniken ermöglichen. Mehr Info Datenbank-Marketing Datenbank-Marketing ist eine Form der Direktvermarktung mit Datenbanken von Kunden oder potenziellen Kunden, um personalisierte Kommunikation zu generieren, um ein Produkt oder eine Dienstleistung für Marketingzwecke zu fördern. Die Methode der Kommunikation kann jedes adressierbare Medium sein, wie im Direktmarketing. Die Unterscheidung zwischen Direkt - und Datenbank-Marketing stammt vor allem aus der Aufmerksamkeit auf die Analyse der Daten. Datenbank-Marketing betont die Verwendung von statistischen Techniken, um Modelle des Kundenverhaltens zu entwickeln, die dann verwendet werden, um Kunden für die Kommunikation auszuwählen. Infolgedessen neigen die Datenbank-Vermarkter auch dazu, schwere Benutzer von Data-Warehouses zu sein, denn mit einer größeren Menge an Daten über Kunden erhöht sich die Wahrscheinlichkeit, dass ein genaueres Modell gebaut werden kann. Mehr Info Forecasting Analysis Forecasting ist der Prozess der Schätzung in unbekannten Situationen. Vorhersage ist ein ähnlicher, aber allgemeinerer Begriff und bezieht sich in der Regel auf die Schätzung von Zeitreihen, Querschnitts - oder Längsdaten. Vorhersage wird häufig in der Diskussion von Zeitreihen-Daten verwendet. Zeitreihenmethoden verwenden historische Daten als Grundlage für die Schätzung zukünftiger Ergebnisse. Verschieben von durchschnittlichen Exponentialglättung Extrapolation Lineare Vorhersage Trendschätzung Wachstumskurve Einige Prognosemethoden verwenden die Annahme, dass es möglich ist, die zugrunde liegenden Faktoren zu identifizieren, die die zu prognostizierte Variable beeinflussen könnten. Zum Beispiel könnte der Verkauf von Regenschirmen mit Wetterbedingungen verbunden sein. Wenn die Ursachen verstanden werden, können Projektionen der beeinflussenden Variablen gemacht und in der Prognose verwendet werden. Regressionsanalyse mittels linearer Regression oder nicht-linearer Regression Autoregressiver gleitender Durchschnitt (ARMA) Autoregressiver integrierter gleitender Durchschnitt (ARIMA) z. B. Box-Jenkins Econometrics In der Statistik ist die Regressionsanalyse der Prozess, der verwendet wird, um die Parameterwerte einer Funktion zu schätzen, wobei die Funktion den Wert einer Antwortvariable in Bezug auf die Werte anderer Variablen prognostiziert. Es gibt viele Methoden entwickelt, um Funktionen zu passen und diese Methoden hängen typischerweise von der Art der verwendeten Funktion ab. Ein autoregressives integriertes gleitendes Durchschnittsmodell (ARIMA) ist eine Verallgemeinerung eines autoregressiven gleitenden Durchschnitts - oder (ARMA) Modells. Diese Modelle sind an Zeitreihen-Daten angepasst, um die Daten besser zu verstehen oder zukünftige Punkte in der Serie vorherzusagen. Das Modell wird allgemein als ARIMA (p, d, q) bezeichnet, wobei p, d und q ganze Zahlen größer oder gleich Null sind und sich auf die Reihenfolge der autoregressiven, integrierten und gleitenden Mittelteile des Modells beziehen beziehungsweise. Mehr Info Data Mining Data Mining ist der Prozess der automatischen Suche von großen Datenmengen für Muster. Es wird in der Regel von Unternehmen und anderen Organisationen verwendet, wird aber zunehmend in den Wissenschaften verwendet, um Informationen aus den enormen Datensätzen zu extrahieren, die durch moderne Experimente erzeugt wurden. Obwohl Data Mining ein relativ neuer Begriff ist, ist die Technologie nicht. Unternehmen haben seit langem leistungsstarke Computer verwendet, um Datenmengen wie Supermarkt-Scanner-Daten zu durchsuchen und Marktforschungsberichte zu erstellen. Kontinuierliche Innovationen in der Computerverarbeitungsleistung, Plattenspeicherung und statistischer Software erhöhen die Genauigkeit und Nützlichkeit der Analyse drastisch. Data Mining identifiziert Trends innerhalb von Daten, die über eine einfache Analyse hinausgehen. Durch den Einsatz von anspruchsvollen Algorithmen haben die Anwender die Möglichkeit, Schlüsselattribute von Geschäftsprozessen und Zielchancen zu identifizieren. Der Begriff Data Mining wird oft verwendet, um auf die beiden getrennten Prozesse der Wissensentdeckung und Vorhersage anzuwenden. Wissensentdeckung liefert explizite Informationen, die eine lesbare Form haben und von einem Benutzer verstanden werden können. Prognose oder prädiktive Modellierung liefert Vorhersagen zukünftiger Ereignisse und kann in einigen Ansätzen (z. B. regelbasierte Systeme) transparent und lesbar sein und in anderen wie neuronalen Netzwerken undurchsichtig sein. Darüber hinaus sind einige Data-Mining-Systeme wie neuronale Netze inhärent auf Vorhersage und nicht auf Wissensentdeckung ausgerichtet. Mehr Info Data Cleansing Data Mining ist der Prozess der automatischen Suche großer Datenmengen für Muster. Es wird in der Regel von Unternehmen und anderen Organisationen verwendet, wird aber zunehmend in den Wissenschaften verwendet, um Informationen aus den enormen Datensätzen zu extrahieren, die durch moderne Experimente erzeugt wurden. Obwohl Data Mining ein relativ neuer Begriff ist, ist die Technologie nicht. Unternehmen haben seit langem leistungsstarke Computer verwendet, um Datenmengen wie Supermarkt-Scanner-Daten zu durchsuchen und Marktforschungsberichte zu erstellen. Kontinuierliche Innovationen in der Computerverarbeitungsleistung, Plattenspeicherung und statistischer Software erhöhen die Genauigkeit und Nützlichkeit der Analyse drastisch. Data Mining identifiziert Trends innerhalb von Daten, die über eine einfache Analyse hinausgehen. Durch den Einsatz von anspruchsvollen Algorithmen haben die Anwender die Möglichkeit, Schlüsselattribute von Geschäftsprozessen und Zielchancen zu identifizieren. Der Begriff Data Mining wird oft verwendet, um auf die beiden getrennten Prozesse der Wissensentdeckung und Vorhersage anzuwenden. Wissensentdeckung liefert explizite Informationen, die eine lesbare Form haben und von einem Benutzer verstanden werden können. Prognose oder prädiktive Modellierung liefert Vorhersagen zukünftiger Ereignisse und kann in einigen Ansätzen (z. B. regelbasierte Systeme) transparent und lesbar sein und in anderen wie neuronalen Netzwerken undurchsichtig sein. Darüber hinaus sind einige Data-Mining-Systeme wie neuronale Netze inhärent auf Vorhersage und nicht auf Wissensentdeckung ausgerichtet. Mehr Info Datenintegration Die Datenintegration ist der Prozess der Kombination von Daten, die sich an verschiedenen Quellen befinden und dem Benutzer eine einheitliche Sicht auf diese Daten bieten. Dieser Prozess entsteht in einer Vielzahl von Situationen sowohl kommerzielle (wenn zwei ähnliche Unternehmen müssen ihre Datenbanken verschmelzen) und wissenschaftlichen (kombiniert Forschungsergebnisse aus verschiedenen Bioinformatik-Repositories). Die Datenintegration erscheint mit zunehmender Häufigkeit als Volumen und die Notwendigkeit, vorhandene Daten zu explodieren. Es ist der Schwerpunkt der umfangreichen theoretischen Arbeit und zahlreiche offene Probleme sind noch zu lösen. In der Managementpraxis wird die Datenintegration häufig Enterprise Information Integration genannt.

Comments