CodeGym /Java-Blog /Random-DE /Java und Big Data: Warum Big-Data-Projekte nicht ohne Jav...
John Squirrels
Level 41
San Francisco

Java und Big Data: Warum Big-Data-Projekte nicht ohne Java auskommen

Veröffentlicht in der Gruppe Random-DE
In unseren Artikeln zu CodeGym werden wir nicht müde zu erwähnen, dass sich Java, das mittlerweile 25 Jahre alt ist, erneuter Beliebtheit erfreut und glänzende Zukunftsaussichten hat. Dafür gibt es mehrere Gründe. Einer davon ist, dass Java die wichtigste Programmiersprache in mehreren trendigen IT-Marktnischen ist, die schnell an Popularität gewinnen. Java und Big Data: Warum Big-Data-Projekte nicht ohne Java auskommen - 1 Das Internet der Dinge (IoT) und Big Data sowie Business Intelligence (BI) und Echtzeitanalysen werden am häufigsten im Zusammenhang mit tiefer Zuneigung und zärtlichen Gefühlen für Java erwähnt. Kürzlich haben wir die Beziehung zwischen Java und dem Internet der Dinge untersuchtund darüber gesprochen, wie ein Java-Entwickler seine Fähigkeiten auf diese Nische abstimmen kann. Nun richten wir unsere Aufmerksamkeit auf einen weiteren Trendbereich, der – Sie haben es erraten – ebenfalls Java liebt und ohne Java nicht leben kann. Deshalb gehen wir heute den folgenden Fragen im Zusammenhang mit Big Data nach: Warum ist Java und damit treue Java-Programmierer auch in dieser Nische so beliebt? Wie genau wird Java in Big-Data-Projekten eingesetzt? Was sollten Sie lernen, um für eine Anstellung in dieser Nische qualifiziert zu sein? und was sind die aktuellen Trends bei Big Data? Und dazwischen werfen wir einen Blick auf die Meinungen der weltbesten Big-Data-Experten, die selbst Homer Simpson dazu bringen würden, mit Big Data zu arbeiten. Java und Big Data: Warum Big-Data-Projekte nicht ohne Java auskommen – 2

https://ru.wikipedia.org/wiki/Homer_Goes_to_College

„Ich sage immer wieder, dass der sexy Beruf der nächsten zehn Jahre Statistiker sein werden. Die Leute denken, ich mache Witze, aber wer hätte gedacht, dass Computeringenieure der sexy Beruf der 1990er Jahre gewesen wäre?“

Big Data erobert den Planeten

Aber zuerst ein wenig über Big Data und warum diese Nische so vielversprechend für den Aufbau einer Karriere ist. Kurz gesagt: Big Data dringt unaufhaltsam, stetig und (was am wichtigsten ist) sehr schnell in die Geschäftsprozesse von Unternehmen auf der ganzen Welt ein. Diese Unternehmen wiederum sind gezwungen, Fachkräfte im Bereich Datenwissenschaft zu finden (natürlich nicht nur Programmierer), und locken diese mit hohen Gehältern und anderen Vergünstigungen. Laut Forbes hat die Nutzung von Big Data in Unternehmen zugenommenvon 17 % im Jahr 2015 auf 59 % im Jahr 2018. Big Data breitet sich schnell auf verschiedene Wirtschaftszweige aus, darunter Vertrieb, Marketing, Forschung und Entwicklung, Logistik und absolut alles andere. Nach Untersuchungen von IBM wird die Zahl der Arbeitsplätze für Fachkräfte in diesem Bereich allein in den Vereinigten Staaten bis 2020 2,7 Millionen überschreiten. Vielversprechend? Darauf können Sie wetten.

Big Data und Java

Warum haben Big Data und Java dann so viel gemeinsam? Tatsache ist, dass viele der wichtigsten Tools für Big Data in Java geschrieben sind. Darüber hinaus handelt es sich bei fast allen dieser Tools um Open-Source-Projekte. Das bedeutet, dass sie für jedermann verfügbar sind und dementsprechend von den größten IT-Unternehmen weltweit aktiv genutzt werden. „Big Data ist zu einem großen Teil Java. Hadoop und ein großer Teil des Hadoop-Ökosystems sind in Java geschrieben. Die native MapReduce-Schnittstelle für Hadoop ist Java. Sie können also problemlos in Big Data einsteigen, indem Sie einfach Java-Lösungen erstellen, die darauf laufen.“ von Hadoop. Es gibt auch Java-Bibliotheken wie Cascading, die die Arbeit erleichtern. Java ist auch sehr nützlich zum Debuggen von Dingen, selbst wenn Sie etwas wie Hive verwenden.“ genanntMarcin Mejran, Datenwissenschaftler und Vizepräsident für Datenentwicklung bei Eight. „Über Hadoop hinaus ist Storm in Java geschrieben und Spark (also: wohl die Zukunft des Hadoop-Computings) ist in Scala (das auf der JVM läuft und Spark über eine Java-Schnittstelle verfügt). Java deckt also einen riesigen Prozentsatz des Big-Data-Bereichs ab, " fügt der Experte hinzu. Wie Sie sehen, werden Java-Kenntnisse in Big Data, dem Internet der Dinge, maschinellem Lernen und mehreren anderen Nischen, die immer beliebter werden, einfach unersetzlich sein.
„Jedes Unternehmen hat in seiner Zukunft große Datenmengen und jedes Unternehmen wird irgendwann im Datengeschäft tätig sein.“
Thomas H. Davenport ,
ein amerikanischer Akademiker und Experte für Analytik und Geschäftsprozessinnovation
Und nun noch etwas mehr zu den oben genannten Big-Data-Tools, die von Java-Entwicklern häufig verwendet werden.

Apache Hadoop

Apache Hadoop ist eine der grundlegenden Technologien für Big Data und ist in Java geschrieben. Hadoop ist eine kostenlose Open-Source-Suite aus Dienstprogrammen, Bibliotheken und Frameworks, die von der Apache Software Foundation verwaltet wird. Hadoop wurde ursprünglich für skalierbares, verteiltes und fehlertolerantes Computing sowie für die Speicherung riesiger Mengen unterschiedlicher Informationen entwickelt und entwickelt sich für viele Unternehmen zum Kernstück der Big-Data-Infrastruktur. Unternehmen auf der ganzen Welt suchen aktiv nach Hadoop-Experten, und Java ist eine Schlüsselkompetenz, die zur Beherrschung dieser Technologie erforderlich ist. Laut Entwicklern auf SlashdotIm Jahr 2019 suchten viele große Unternehmen, darunter JPMorgan Chase mit seinen rekordverdächtigen Gehältern für Programmierer, aktiv auf der Hadoop World-Konferenz nach Hadoop-Experten, konnten aber selbst dort nicht genügend Experten mit den erforderlichen Fähigkeiten (insbesondere Kenntnissen) finden des Programmiermodells und Frameworks Hadoop MapReduce). Das bedeutet, dass die Gehälter in diesem Bereich noch weiter steigen werden. Und sie sind schon sehr groß. Business Insider schätzt insbesondere, dass der durchschnittliche Hadoop-Experte 103.000 US-Dollar pro Jahr kostet, während die durchschnittlichen Kosten für Big-Data-Spezialisten 106.000 US-Dollar pro Jahr betragen. Personalvermittler, die nach Hadoop-Experten suchen, heben Java als eine der wichtigsten Fähigkeiten für eine erfolgreiche Beschäftigung hervor. Hadoop wird von vielen großen Unternehmen, darunter IBM, Microsoft und Oracle, schon seit langem verwendet oder erst vor relativ kurzer Zeit eingeführt. Im Augenblick,
„Wo Datenrauch ist, ist Geschäftsbrand.“
Dr. Thomas Redman ,
ein renommierter Experte für Datenanalyse und digitale Technologie

Apache Spark

Apache Spark ist eine weitere wichtige Big-Data-Plattform, die ein ernstzunehmender Konkurrent von Hadoop ist. Aufgrund der Geschwindigkeit, Flexibilität und Bequemlichkeit, die es Entwicklern bietet, entwickelt sich Apache Spark zur führenden Umgebung für groß angelegte Entwicklungen in SQL, paketvermittelten und gestreamten Daten sowie maschinellem Lernen. Als Framework für die verteilte Big-Data-Verarbeitung funktioniert Apache Spark weitgehend wie das Hadoop-MapReduce-Framework und beraubt MapReduce nach und nach seiner Vorrangstellung bei Big Data. Spark kann auf viele verschiedene Arten verwendet werden. Es verfügt über eine API für Java sowie mehrere andere Programmiersprachen wie Scala, Python und R. Heute wird Spark häufig von Banken, Telekommunikationsunternehmen, Videospielentwicklern und sogar Regierungen verwendet. Natürlich lieben IT-Giganten wie Apple, Facebook, IBM und Microsoft Apache Spark.

Apache Mahout

Apache Mahout ist eine Open-Source-Java-Bibliothek für maschinelles Lernen von Apache. Es handelt sich um ein skalierbares Tool für maschinelles Lernen, das Daten auf einer oder mehreren Maschinen verarbeiten kann. Die Implementierungen des maschinellen Lernens sind in Java geschrieben und einige Teile basieren auf Apache Hadoop.

Apache Storm

Apache Storm ist ein Framework für die verteilte Stream-Verarbeitung in Echtzeit. Storm vereinfacht die fehlertolerante Verarbeitung unbegrenzter Datenströme und erledigt in Echtzeit das, was Hadoop für Datenpakete tut. Storm lässt sich in jedes Warteschlangensystem und jedes Datenbanksystem integrieren.

Java JFreeChart

Java JFreeChart ist eine in Java entwickelte Open-Source-Bibliothek, die für die Verwendung in Java-basierten Anwendungen zum Erstellen einer Vielzahl von Diagrammen konzipiert ist. Tatsache ist, dass die Datenvisualisierung für die erfolgreiche Analyse von Big Data sehr wichtig ist. Da bei Big Data mit großen Datenmengen gearbeitet wird, kann es schwierig sein, anhand der Rohdaten Trends zu erkennen oder gar bestimmte Schlussfolgerungen zu ziehen. Wenn jedoch dieselben Daten in einem Diagramm angezeigt werden, werden sie verständlicher. Es ist einfacher, Muster zu finden und Zusammenhänge zu erkennen. Tatsächlich hilft Java JFreeChart bei der Erstellung von Grafiken und Diagrammen für die Big-Data-Analyse.

Deeplearning4j

Deeplearning4j ist eine Java-Bibliothek, die zum Aufbau verschiedener Arten neuronaler Netze verwendet wird. Deeplearning4j ist in Java implementiert und läuft in der JVM. Es ist außerdem mit Clojure kompatibel und enthält eine API für die Scala-Sprache. Deeplearning4j umfasst eine Implementierung einer eingeschränkten Boltzmann-Maschine, eines Deep-Believe-Netzwerks, eines Deep-Autoencoders, eines gestapelten Entrauschungs-Autoencoders, eines rekursiven neuronalen Tensornetzwerks, von word2vec, doc2vec und GloVe.
„Daten werden zum neuen Rohstoff für Unternehmen.“

Big Data an der Schwelle zum Jahr 2020: die aktuellsten Trends

2020 sollte ein weiteres Jahr des schnellen Wachstums und der schnellen Entwicklung von Big Data sowie der weit verbreiteten Einführung von Big Data durch Unternehmen und Organisationen in verschiedenen Bereichen werden. Lassen Sie uns also kurz die Trends im Bereich Big Data hervorheben, die im nächsten Jahr eine wichtige Rolle spielen dürften. Java und Big Data: Warum Big-Data-Projekte nicht ohne Java auskommen – 3

https://www.arnnet.com.au/slideshow/553034/pictures-our-10-favourite-techie-simpsons-episodes-moments/

Internet der Dinge – Big Data wird immer größer

Das Internet der Dinge (IoT) scheint nicht zum Thema zu gehören, aber das ist nicht der Fall. Das Internet der Dinge liegt weiterhin im Trend, da es an Dynamik gewinnt und sich auf der ganzen Welt ausbreitet. Folglich wächst auch die Zahl der in Haushalten und Büros installierten „intelligenten“ Geräte. Wie es sich gehört, senden diese Geräte alle Arten von Daten dorthin, wo sie benötigt werden. Das bedeutet, dass das Volumen von Big Data nur noch zunehmen wird. Experten zufolge verfügen viele Organisationen bereits über viele Daten, vor allem aus dem IoT, auf deren Nutzung sie nicht gut vorbereitet sind. Im Jahr 2020 wird diese Datenlawine noch größer werden. Folglich werden auch die Investitionen in Big-Data-Projekte rasant zunehmen. Und denken Sie daran, dass das IoT auch Java sehr mag . Wer liebt es nicht?

Digitale Zwillinge

Digitale Zwillinge sind ein weiterer interessanter kommender Trend, der in direktem Zusammenhang mit dem Internet der Dinge und Big Data steht. Dementsprechend wird Java hier durchaus einen großen Einsatz finden. Was ist ein digitaler Zwilling? Dabei handelt es sich um eine digitale Nachbildung eines realen Objekts oder Systems. Ein digitales Analogon eines physischen Geräts ermöglicht es, die internen Prozesse, technischen Eigenschaften und das Verhalten eines realen Objekts unter dem Einfluss von Störungen und seiner Umgebung zu simulieren. Ohne eine große Anzahl parallel arbeitender Sensoren im realen Gerät kann ein digitaler Zwilling nicht funktionieren. Schätzungen zufolge wird es bis 2020 weltweit mehr als 20 Milliarden vernetzte Sensoren geben, die Informationen für Milliarden digitaler Zwillinge übertragen. Im Jahr 2020 dürfte dieser Trend an Dynamik gewinnen und in den Vordergrund treten.

Die digitale Transformation wird bewusster.

Als wichtiger Trend wird seit einigen Jahren die digitale Transformation genannt. Experten sagen jedoch, dass viele Unternehmen und Topmanager ein äußerst vages Verständnis davon hatten, was dieser Begriff überhaupt bedeutet. Für viele bedeutete die digitale Transformation, Wege zu finden, die vom Unternehmen gesammelten Daten zu verkaufen, um neue Einnahmequellen zu erschließen. Bis 2020 erkennen immer mehr Unternehmen, dass es bei der digitalen Transformation darum geht, sich einen Wettbewerbsvorteil zu verschaffen, indem sie Daten in allen Aspekten ihres Geschäfts richtig nutzen. Das bedeutet, dass wir davon ausgehen können, dass Unternehmen ihre Budgets für Projekte im Zusammenhang mit der korrekten und informierten Nutzung von Daten erhöhen werden.
„Wir bewegen uns langsam in eine Ära hinein, in der Big Data der Ausgangspunkt und nicht das Ende ist.“
Pearl Zhu ,
Autorin der Digital Master-Buchreihe

Zusammenfassung

Big Data ist ein weiteres wirklich riesiges Betätigungsfeld mit vielen Möglichkeiten für Java-Entwickler. Neben dem Internet der Dinge boomt dieser Bereich und leidet unter einem akuten Mangel an Programmierern und anderen technischen Experten. Jetzt ist es an der Zeit, diese langen Artikel nicht mehr zu lesen und mit dem Erlernen von Java zu beginnen!
Kommentare
TO VIEW ALL COMMENTS OR TO MAKE A COMMENT,
GO TO FULL VERSION