CodeGym /وبلاگ جاوا /Random-FA /جاوا و داده های بزرگ: چرا پروژه های کلان داده بدون جاوا ن...
John Squirrels
مرحله
San Francisco

جاوا و داده های بزرگ: چرا پروژه های کلان داده بدون جاوا نمی توانند کار کنند

در گروه منتشر شد
در مقاله‌های خود در CodeGym، هرگز از ذکر این نکته خسته نمی‌شویم که جاوا، که اکنون 25 سال از عمرش می‌گذرد، از محبوبیت مجددی برخوردار است و چشم‌اندازهای درخشانی در آینده نزدیک دارد. چند دلیل برای این وجود دارد. یکی از آنها این است که جاوا زبان برنامه نویسی اصلی در چندین بازار پرطرفدار فناوری اطلاعات است که به سرعت در حال افزایش محبوبیت هستند. جاوا و داده های بزرگ: چرا پروژه های کلان داده بدون جاوا نمی توانند انجام دهند - 1 اینترنت اشیا (IoT) و کلان داده، و همچنین هوش تجاری (BI) و تجزیه و تحلیل زمان واقعی اغلب در زمینه عشق عمیق و احساسات لطیف به جاوا ذکر می شوند. اخیراً، ما رابطه بین جاوا و اینترنت اشیاء را بررسی کردیم و در مورد اینکه چگونه یک توسعه دهنده جاوا می تواند مهارت های خود را به این حوزه اختصاص دهد صحبت کردیم. اکنون توجه خود را به یکی دیگر از حوزه های فوق العاده پرطرفدار معطوف می کنیم که - حدس زدید - جاوا را نیز دوست دارد و نمی تواند بدون آن زندگی کند. بنابراین، امروز سؤالات زیر را در رابطه با کلان داده بررسی خواهیم کرد: چرا جاوا، و در نتیجه کدنویسان جاوا وفادار، در این حوزه بسیار محبوب هستند؟ جاوا دقیقاً چگونه در پروژه های کلان داده استفاده می شود؟ برای واجد شرایط بودن برای استخدام در این طاقچه چه چیزی باید یاد بگیرید؟ و روند فعلی در کلان داده چیست؟ و در بین همه اینها، ما به نظرات کارشناسان برتر جهان در مورد کلان داده ها نگاه خواهیم کرد، که حتی هومر سیمپسون را وادار به کار با کلان داده ها می کند. جاوا و داده های بزرگ: چرا پروژه های کلان داده بدون جاوا نمی توانند انجام دهند - 2

https://ru.wikipedia.org/wiki/Homer_Goes_to_College

"من مدام می گویم شغل سکسی در ده سال آینده آماردان خواهد بود. مردم فکر می کنند که من شوخی می کنم، اما چه کسی حدس می زد که مهندسان کامپیوتر شغل جذاب دهه 1990 بوده اند؟"

کلان داده در حال تسخیر سیاره است

اما ابتدا، کمی در مورد کلان داده ها و اینکه چرا این طاقچه بسیار امیدوارکننده برای ایجاد یک حرفه است. به طور خلاصه، کلان داده به طور اجتناب ناپذیر، پیوسته و (از همه مهمتر) خیلی سریع راه خود را به فرآیندهای تجاری شرکت ها در سراسر جهان باز می کند. این شرکت ها به نوبه خود مجبور می شوند متخصصان علوم داده (البته نه فقط برنامه نویسان) پیدا کنند و آنها را با دستمزدهای بالا و مزایای دیگر جذب کنند. طبق فوربس، استفاده از کلان داده در مشاغل از 17 درصد در سال 2015 به 59 درصد در سال 2018 افزایش یافته است. کلان داده ها به سرعت در بخش های مختلف اقتصاد از جمله فروش، بازاریابی، تحقیق و توسعه، تدارکات و کاملاً هر چیز دیگری در حال گسترش است. بر اساس تحقیقات IBM، تعداد مشاغل حرفه ای در این زمینه تا سال 2020 تنها در ایالات متحده از 2.7 میلیون نفر خواهد گذشت. امیدوار کننده؟ شرط می بندی.

کلان داده و جاوا

حالا پس چرا داده های بزرگ و جاوا این همه اشتراک دارند؟ مسئله این است که بسیاری از ابزارهای اصلی برای داده های بزرگ در جاوا نوشته شده اند. علاوه بر این، تقریباً همه این ابزارها پروژه های متن باز هستند. این بدان معنی است که آنها در دسترس همه هستند و بر این اساس به طور فعال توسط بزرگترین شرکت های فناوری اطلاعات در سراسر جهان استفاده می شوند. "تا حد زیادی Big Data جاوا است. Hadoop و درصد زیادی از اکوسیستم Hadoop به زبان جاوا نوشته شده است. رابط MapReduce اصلی برای Hadoop جاوا است. بنابراین می توانید به راحتی با ساخت راه حل های جاوا که در بالا اجرا می شوند به داده های بزرگ بروید. از Hadoop. همچنین کتابخانه‌های جاوا مانند Cascading وجود دارد که کار را آسان‌تر می‌کند. جاوا نیز برای اشکال‌زدایی چیزها واقعاً مفید است حتی اگر از چیزی مانند Hive استفاده کنید." Marcin Mejran، دانشمند داده و معاون توسعه داده در Eight گفت . فراتر از Hadoop، Storm در جاوا نوشته شده است و Spark (یعنی احتمالاً آینده محاسبات هادوپ) در Scala است (که روی JVM اجرا می شود و Spark دارای رابط جاوا است). بنابراین جاوا درصد زیادی از فضای Big Data را پوشش می دهد. این کارشناس می افزاید. همانطور که می بینید، دانش جاوا در کلان داده، اینترنت اشیا، یادگیری ماشین و چندین جایگاه دیگر که همچنان محبوبیت پیدا می کنند، به سادگی غیرقابل جایگزین خواهد بود.
"هر شرکتی در آینده خود دارای داده های بزرگ است و هر شرکتی در نهایت وارد تجارت داده خواهد شد."
و اکنون کمی بیشتر در مورد ابزارهای داده بزرگ ذکر شده، که به طور گسترده توسط توسعه دهندگان جاوا استفاده می شود.

آپاچی هادوپ

Apache Hadoop یکی از فناوری های اساسی برای داده های بزرگ است و به زبان جاوا نوشته شده است. Hadoop یک مجموعه رایگان و منبع باز از ابزارها، کتابخانه ها و چارچوب ها است که توسط بنیاد نرم افزار آپاچی مدیریت می شود. Hadoop که در اصل برای محاسبات مقیاس پذیر، توزیع شده و تحمل خطا و همچنین ذخیره مقادیر عظیمی از اطلاعات مختلف ایجاد شده است، طبیعتاً به مرکز زیرساخت داده های بزرگ برای بسیاری از شرکت ها تبدیل شده است. شرکت ها در سرتاسر جهان به طور فعال به دنبال کارشناسان Hadoop هستند و جاوا یک مهارت کلیدی برای تسلط بر این فناوری است. به گفته توسعه دهندگان در Slashdot ، در سال 2019، بسیاری از شرکت های بزرگ، از جمله JPMorgan Chase، با دستمزدهای رکوردشکن برای برنامه نویسان، فعالانه به دنبال کارشناسان Hadoop در کنفرانس Hadoop World بودند، اما حتی در آنجا نیز نتوانستند متخصصان کافی را با شرایط لازم پیدا کنند. مهارت ها (به ویژه دانش مدل و چارچوب برنامه نویسی Hadoop MapReduce). این بدان معناست که حقوق در این زمینه بیش از پیش رشد خواهد کرد. و آنها در حال حاضر بسیار بزرگ هستند. به طور خاص، Business Insider تخمین می زند که میانگین هزینه متخصص Hadoop 103000 دلار در سال است، در حالی که میانگین هزینه متخصصان کلان داده 106000 دلار در سال است. استخدام کنندگانی که به دنبال کارشناسان Hadoop هستند، جاوا را به عنوان یکی از مهم ترین مهارت ها برای استخدام موفق برجسته می کنند. Hadoop مدت‌هاست که توسط بسیاری از شرکت‌های بزرگ از جمله IBM، مایکروسافت و اوراکل استفاده می‌شود یا به تازگی معرفی شده است. در حال حاضر، آمازون، eBay، اپل، فیس بوک، جنرال دینامیک و سایر شرکت ها نیز موقعیت های زیادی برای متخصصان Hadoop دارند.
جایی که دود داده وجود دارد، آتش کسب و کار وجود دارد.

آپاچی اسپارک

آپاچی اسپارک یکی دیگر از پلتفرم های مهم کلان داده است که رقیب جدی Hadoop است. Apache Spark به دلیل سرعت، انعطاف‌پذیری و راحتی که به توسعه‌دهندگان ارائه می‌دهد، در حال تبدیل شدن به محیط پیشرو برای توسعه در مقیاس بزرگ در SQL، داده‌های سوئیچینگ بسته و جریانی، و یادگیری ماشین است. Apache Spark به‌عنوان چارچوبی برای پردازش کلان داده‌های توزیع‌شده، بسیار شبیه چارچوب Hadoop MapReduce عمل می‌کند و به تدریج اولویت MapReduce را در داده‌های بزرگ سلب می‌کند. از اسپارک می توان به روش های مختلفی استفاده کرد. این یک API برای جاوا و همچنین چندین زبان برنامه نویسی دیگر مانند Scala، Python و R دارد. امروزه Spark به طور گسترده توسط بانک ها، شرکت های مخابراتی، توسعه دهندگان بازی های ویدیویی و حتی دولت ها استفاده می شود. طبیعتا غول های فناوری اطلاعات مانند اپل، فیسبوک، آی بی ام و مایکروسافت عاشق آپاچی اسپارک هستند.

آپاچی ماهوت

Apache Mahout یک کتابخانه یادگیری ماشین جاوا منبع باز از آپاچی است. این یک ابزار یادگیری ماشینی مقیاس پذیر است که می تواند داده ها را روی یک یا چند ماشین پردازش کند. پیاده سازی های یادگیری ماشین به زبان جاوا نوشته شده اند و برخی از قسمت ها بر روی Apache Hadoop ساخته شده اند.

طوفان آپاچی

Apache Storm چارچوبی برای پردازش جریان توزیع شده در زمان واقعی است. Storm پردازش غیرقابل تحمل جریان های داده نامحدود را ساده می کند و همان کاری را که Hadoop برای بسته های داده انجام می دهد، در زمان واقعی انجام می دهد. Storm با هر سیستم صف و هر سیستم پایگاه داده ادغام می شود.

جاوا JFreeChart

Java JFreeChart یک کتابخانه منبع باز است که در جاوا توسعه یافته و برای استفاده در برنامه های کاربردی مبتنی بر جاوا برای ایجاد طیف گسترده ای از نمودارها طراحی شده است. واقعیت این است که تجسم داده ها برای تجزیه و تحلیل موفقیت آمیز داده های بزرگ بسیار مهم است. از آنجایی که کلان داده شامل کار با حجم زیادی از داده است، شناسایی روندها یا حتی رسیدن به نتایج خاصی با نگاه کردن به داده های خام می تواند دشوار باشد. اما، اگر همان داده ها در نمودار نمایش داده شود، قابل درک تر می شود. پیدا کردن الگوها و شناسایی همبستگی ها آسان تر است. همانطور که اتفاق می افتد، Java JFreeChart به ایجاد نمودارها و نمودارها برای تجزیه و تحلیل داده های بزرگ کمک می کند.

Deeplearning4j

Deeplearning4j یک کتابخانه جاوا است که برای ساخت انواع مختلف شبکه های عصبی استفاده می شود. Deeplearning4j در جاوا پیاده سازی شده و در JVM اجرا می شود. همچنین با Clojure سازگار است و دارای یک API برای زبان Scala است. Deeplearning4j شامل اجرای یک ماشین محدود بولتزمن، شبکه باور عمیق، رمزگذار خودکار عمیق، رمزگذار خودکار حذف نویز انباشته، شبکه تانسور عصبی بازگشتی، word2vec، doc2vec و GloVe است.
"داده ها در حال تبدیل شدن به مواد خام جدید برای تجارت هستند."

کلان داده در آستانه سال 2020: جدیدترین روندها

سال 2020 باید سال دیگری از رشد و تکامل سریع داده های بزرگ همراه با پذیرش گسترده داده های بزرگ توسط شرکت ها و سازمان ها در زمینه های مختلف باشد. بنابراین، بیایید به طور خلاصه روندهای کلان داده را که باید نقش مهمی در سال آینده ایفا کنند، برجسته کنیم. جاوا و داده های بزرگ: چرا پروژه های کلان داده بدون جاوا نمی توانند انجام دهند - 3

https://www.arnnet.com.au/slideshow/553034/pictures-our-10-favourite-techie-simpsons-episodes-moments/

اینترنت اشیا – کلان داده بزرگتر می شود

اینترنت اشیا (IoT) ممکن است خارج از موضوع به نظر برسد، اما اینطور نیست. اینترنت اشیا با افزایش شتاب و گسترش در سراسر جهان به "روند" خود ادامه می دهد. در نتیجه، تعداد دستگاه های "هوشمند" نصب شده در منازل و ادارات نیز رو به افزایش است. همانطور که باید، این دستگاه ها انواع داده ها را به جایی که باید بروند ارسال می کنند. این بدان معنی است که حجم داده های بزرگ فقط رشد خواهد کرد. به گفته کارشناسان، بسیاری از سازمان‌ها در حال حاضر داده‌های زیادی، عمدتاً از اینترنت اشیا، در اختیار دارند که برای استفاده از آن‌ها آمادگی کافی ندارند. در سال 2020، این بهمن داده حتی بزرگتر خواهد شد. در نتیجه، سرمایه گذاری در پروژه های کلان داده نیز به سرعت افزایش خواهد یافت. و به یاد داشته باشید، اینترنت اشیا نیز به جاوا بسیار علاقه دارد . چه کسی آن را دوست ندارد؟

دوقلوهای دیجیتال

دوقلوهای دیجیتال یکی دیگر از روندهای جالب آینده است که مستقیماً با اینترنت اشیا و کلان داده مرتبط است. بر این اساس، جاوا در اینجا کاربرد بسیار کمی خواهد دید. دوقلو دیجیتال چیست؟ این یک کپی دیجیتالی از یک شی یا سیستم واقعی است. یک آنالوگ دیجیتال یک دستگاه فیزیکی شبیه سازی فرآیندهای داخلی، مشخصات فنی و رفتار یک شی واقعی را تحت تأثیر تداخل و محیط آن ممکن می سازد. یک دوقلو دیجیتال نمی تواند بدون تعداد زیادی سنسور در دستگاه واقعی که به طور موازی کار می کنند کار کند. تا سال 2020، پیش بینی می شود که در سطح جهان بیش از 20 میلیارد حسگر متصل وجود داشته باشد که اطلاعات را برای میلیاردها دوقلو دیجیتال منتقل می کند. در سال 2020، این روند باید شتاب بیشتری بگیرد و به منصه ظهور برسد.

تحول دیجیتال عمدی تر خواهد شد.

چندین سال است که از تحول دیجیتال به عنوان یک روند مهم یاد می شود. اما کارشناسان می گویند که بسیاری از شرکت ها و مدیران ارشد درک بسیار مبهمی از معنای این عبارت داشتند. برای بسیاری، تحول دیجیتال به معنای یافتن راه‌هایی برای فروش داده‌هایی است که شرکت جمع‌آوری می‌کند تا جریان‌های درآمدی جدیدی تولید کند. تا سال 2020، شرکت‌های بیشتر و بیشتری متوجه می‌شوند که تحول دیجیتال تماماً به ایجاد مزیت رقابتی با استفاده صحیح از داده‌ها در هر جنبه از تجارتشان است. این بدان معناست که ما می توانیم انتظار داشته باشیم که شرکت ها بودجه پروژه های مربوط به استفاده صحیح و آگاهانه از داده ها را افزایش دهند.
ما به آرامی وارد دورانی می شویم که داده های بزرگ نقطه شروع است، نه پایان.
پرل زو ،
نویسنده مجموعه کتاب های Digital Master

خلاصه

داده های بزرگ یکی دیگر از حوزه های واقعاً عظیم فعالیت است که فرصت های زیادی برای توسعه دهندگان جاوا دارد. علاوه بر اینترنت اشیا، این حوزه در حال رونق است و از کمبود شدید برنامه نویس و سایر کارشناسان فنی رنج می برد. پس اکنون وقت آن است که خواندن این مقالات طولانی را متوقف کنید و شروع به یادگیری جاوا کنید!
نظرات
TO VIEW ALL COMMENTS OR TO MAKE A COMMENT,
GO TO FULL VERSION