Big Data: Microsoft baut Azure Daten See aus

War im April 2015 noch als Daten See angekündigt Wurde, ist als Daten See Shop Nonne nur Noch eine komponente Eines größeren Angebots zur Analyse und Verarbeitung von Datenmengen Über verschiedene Plattformen hinweg.

Da immer mehr Unternehmen versuchen sterben IHNEN Zur Verfügung stehenden Datenmassen in Anwendungen zu Nutzen, wird Microsoft zukünftig mit Azure Daten See Eine Hilfestellung bei Waren dieser Arbeit GEBEN. Dafur hat das Unternehmen sein im Frühjahr vorgestelltes Angebot ausgebaut und um Verteilt Arbeitende Datenverarbeitungs- und -analysemöglichkeiten ergänzt. Azure Daten See setzt Sich zukünftig auch aus dem früher unter diesem Namen Bekannten Daten See Shop und den Komponenten Daten See Analytics und Azure HDInsight zusammen. Wer ein dem Angebot interessiert ist, Kann Sich Online registrieren, Steht da es DERZEIT noch nicht öffentlich Zur Verfügung.

Abrechnung nach tatsächlichem Verbrauch

Mit Dem Daten See Shop Sollen Nutzer Daten unterschiedlicher Größe, Art und geschwindigkeit erfassen can und zudem sterben Option have, sie zur Verarbeitung und Analyse Durch HDFS-Anwendungen (Hadoop Distributed File System) und -Werkzeuge freizugeben. Daten See Analytics Arbeitet mit Apache Garn (Yet Another Ressourcen Negotiator) und soll für Datenanalysezwecke Zur Verfügung Stehen. Objektes besonders dabei ist wohl der Umstand, Dass der Dienst Jobs beliebiger Größe bewältigen can soll, da er sterben nötigen Ressourcen entsprechend zuschalten und Nach Dem tatsächlichen Verbrauch abrechnen can.

Neue Abfragesprache

Außerdem ist mit U-SQL Eine neue Abfragesprache Teil der Analysekomponente. Sie vereint wohl Eigenschaften von C # und SQL in sich, DAMIT Entwickler aus dem SQL- und .NET-Bereich EINEN einfacheren Einstieg in die Auswertung großer Datenmengen erhalten, ohne viel Zeit in das Erlernen neuer Werkzeuge stecken zu Müssen. Azure HDInsight ist schon länger Bekannt, Steht nun Aber Auch für Linux-Systeme Zur Verfügung und soll das Daten-Lake-Angebot abrunden. Der Apache-Hadoop-Cluster-Dienst umfasst unter Anderem Analyseoptionen in Formular von projekten Wie Apache Funken und Sturm aus dem Umfeld des Frameworks.

Gebäude IoT: Heise kündigt Entwicklerkonferenz zum Internet der Dinge ein

Das Internet der Dinge verspricht viel: eine Fülle neuer Produktideen und Geschäftsmodelle Eulen weitreichende Veränderungen im Privaten und Beruflichen Leben. Die neue Konferenz wird bei der technischen umsetzung ernsthafter IoT-Projekte helfen.

heise Entwickler , iX und der zu Heise Medien gehörende dpunkt.verlag erweitern mit der Gebäude IoT 2016 ihr Portfolio ein Entwicklerkonferenzen. Die neue Veranstaltung findet nächstes Jahr vom 10. bis 12. Mai im Kölner KOMED Veranstaltungszentrum statt. Mit der Ankündigung der Konferenz startet Auch der Call for Papers. Bis Ende November have Experten im Umfeld des Internet der Dinge und von Industrie 4.0 Die Gelegenheit, Sich mit Einem Vortrag oder Einem ganztägigen Werkstatt for the den Aufbau des Internet der Dinge zu bewerben.

Die neue Konferenz Konzentriert Sich auf Jene Mitarbeiter in Unternehmen sterben Sich um zu sterben Technischen umsetzung neuer IoT-Produkte kümmern. Die Ausrichter wollen Sich Nicht mit der Vorstellung spielerischer Projekte aufhalten, Sondern reale Probleme und erfahrungen Eulen Werkzeuge und Anwendungsszenarien Präsentieren. Das Thema “Sicherheit” soll dabei EINEN Deutlich erkennbaren Programmschwerpunkt Bilden. Ein weiteres inhaltliches Zentrum Stellt das Zusammenspiel von Internet der Dinge und Big Data dar, auch Wie Sich beispielsweise sterben Durch Die Vernetzung aufkommenden massendaten gewinnbringend Nutzen lassen.

Für sterben Zusammenstellung des Programme Haben sterben Organisatoren Ein Programmkomitee mit Vertretern schon Langer in sterben Konferenzthemen involvierter Unternehmen Zusammengestellt. In IHM FINDEN Sich Pavlo Baron (Instana), Thorsten Henkel (Fraunhofer-Institut für Sichere Informationstechnologie), Kai Kreuzer (Openhab, Deutsche Telekom), Dominik Obermaier (dc-Platz), Tim Weilkiens (oose) und Chris Winkler (Siemens).

Wer Über den Fortgang der Konferenz Auf dem Laufenden bleiben Möchte, Kann sich hier informieren lassen oder den Organisatoren auf Twitter folgen.

Pivotal bringt HAWQ und Madlib in sterben Apache Software Foundation Ein

Das aus VMware hervorgegangene Unternehmen Hut Zwei weitere Projekte der Eigenen Big-Data-Suite An die Open-Source-Organisation übergeben.

Durch den schritt, sterben Softwareprojekte HAWQ und Madlib An die Apache Software Foundation zu übergeben, setzt Pivotal seine früher im Jahr getätigten Versprechungen in sterben Realität um. Beide Techniken Sind erst mal Incubator-Projekte der Open-Source-Organisation, Was bedeutet, Dass sie Sich Für einen Gewissen Zeitraum als Apache-Projekte Beweisen Müssen, Bevor sie zu vollwertigen Mitgliedern der Stiftung Werden.

HAWQ ist sterben SQL-abfrage-Motor für Hadoop des Unternehmens und bringt weitere Merkmale Wie Kompatibilität with the TPC-DS-Benchmark, lineare Skalierbarkeit und Unterstützung Unterstützung für sterben Hortonworks Datenplattform mit. Außerdem Wird Eine API Bereitgestellt, mit Sich neue Services und Formate Ergänzen lassen. Madlib is a Softwarebibliothek für parallel verarbeitende Maschine-Learning-Methoden für strukturierte und unstrukturierte Daten.

Pivotal ist seit diesem Frühjahr Platin-Sponsor der Apache Software Foundation. Damals hätte das Unternehmen DAMIT begonnen, sein Anfang 2015 gemachtes Versprechen bezüglich der Offenlegung der Quellen von Teilen Wadenfänger Big-Data-Suite einzulösen. Das erste Projekt im Züge of this Bemühungen Krieg Geode, Dessen grundlage der Kodex der In-Memory-Datenbank GemFire ​​Bildet.