فرصت های شغلی در تیم سلوک

تیم استارتاپی سلوک، محیطی دوستانه، صمیمی و پویا دارد. هم تیمی های شما افراد توانمند و باهوشی هستند که به دیتاسلوک و رشد تیمی بسیار علاقه­مندند. حضور در این محیط، علاوه بر حس مثبت همراهی و همدلی، سرشار از حس حرکت و رشد است که با یادگیری و کارکردن روی فناوری های لبه تکنولوژی برای افراد تیم فراهم می شود.

شعار تیمی ما اینست: «ما همه با هم یک تیم واحد هستیم، در کنار هم برای رشد محصول و رشد توانمندی های شخصی تلاش می کنیم، در حل مشکلات کنار هم هستیم و مساله هر فرد در تیم، مساله کل تیم است.»

تیم سلوک همواره علاقه مند است پذیرای افراد توانمند و مشتاق با توان بالا در کار تیمی باشد. اگر به فراگیری و استفاده از ابزار جدید برای حل مسائل چالش برانگیز علاقه مندید و مایلید در کشف دنیای ناشناخته های سرویس های پلتفرمی هوش مصنوعی و داده با تیم سلوک همراه باشید، رزومه تان را با عنوان «مشارکت در سلوک» به آدرس dataknow.team@gmail.com ارسال کنید. لطفا نیازمندی های کنونی تیم را مطالعه کنید و در متن ایمیل به ما بگویید که ترجیح می دهید در کدام بخش فعالیت کنید. اگر ایده­ ای در مورد محل فعالیت خود ندارید، آن را به ما بسپارید. ما تلاشمان را خواهیم کرد بهترین موقعیت را به شما پیشنهاد دهیم.

پیش از مطالعه موقعیت­های شغلی در سلوک، موارد زیر را در نظر داشته باشید:

  • در تمامی نقش­ ها و موقعیت­ های شغلی، آشنایی با ابزارهای تخصصی هر حیطه یک امتیاز مثبت محسوب میشود ولی برای گرفتن آن نقش ضروری نیست. بنابراین اگر به شرح نیازمندی های هر یک از موقعیت های شغلی علاقه مندید و بخشی از نیازهای موردنیاز آن را دارید، رزومه تان را ارسال کنید. نگران ندانسته هایتان نباشید، ما پلنی طراحی خواهیم کرد و در کنار هم یاد خواهیم گرفت.
  • داشتن تجربه کاری در هر یک از موقعیت های شغلی، امتیاز مثبت محسوب می شود.
  • در سلوک، دانش میان اعضای تیم به اشتراک گذاشته می شود. با توجه به گسترده بودن ناشناخته­ها در مسیر دیتاسلوک، «مستندسازی» چه در قالب مستندات فنی و چه در قالب کامنت های توصیفی داخل کدها، فرهنگ درونی تیم شده، و در نتیجه این فرهنگ، سرعت آموزش و افزوده شدن افراد جدید به تیم، بیش از پیش شده است. بنابراین، در تمام موقعیت­های شغلی زیر، در نظر داشته باشید که ما همواره انتظار مستندسازی دانش کسب شده (و یا کد توسعه یافته)، آموزش و به اشتراک گذاشتن دانش را داریم.
  • در سلوک، روی خروجی ها و نتیجه کار متمرکز هستیم. بنابراین ساعت کاری انعطاف پذیر است و در صورت نیاز امکان انجام کار به صورت ریموت وجود دارد.
  • آپشن دریافت سهام برای تمامی موقعیت های شغلی زیر وجود دارد.
  • ترجیح ما، فعالیت افراد به صورت تمام وقت و حداقل یک ساله در تیم است، ولی مدلهای دیگر همکاری هم امکان پذیر است. اگر طول مدت کمتری برای همکاری در نظر دارید و یا ترجیح شما فعالیت پاره وقت است، لطفا در متن ایمیل به این موارد اشاره کنید.
  • و سخن آخر؛ در حال حاضر امکان جذب کارآموز در تیم به صورت محدود وجود دارد. در این حالت، مستندسازی فنی شما نسبت به سایر اعضای تیم بیشتر خواهد بود، ولی همواره تسک های عملیاتی و نرم افزاری نیز برای شما در نظر گرفته خواهد شد.

مهندس DevOps

  • هدف:
    • طراحی سیستم مقیاس­پذیر
    • تحقیق و توسعه پیرامون سرویس های پلتفرمی و راه اندازی آنها (مانند کوبرنتیز، ELK، و …)
    • راه اندازی، پیکربندی، و مدیریت ابزار داخلی مورد نیاز تیم در توسعه و استقرار
    • استقرار، خودکارسازی، نگهداری، مانیتور و پشتیبانی سیستم ها
  • نیازمندی ها
    • شناخت کامل لینوکس و شناخت کانتینر و مجازی سازی
    • آشنایی متوسط با کوبرنتیز (Kubernetes)
    • آشنایی با فناوری های استقرار کد، فرایندهای CI/CD و ابزار مرتبط
    • راه اندازی و نگهداری load balancerها
    • نصب و تنظیم ابزار مختلف جمع آوری داده، دیتابیس ها، ابزار تحلیل، و …
    • آشنایی با ابزار پرومتئوس (Prometheus) و گرافانا (Grafana)،
    • آشنایی با ELK.
    • آشنایی با زبان پایتون، Shell Script و ابزار Git.
    • آشنایی با ابزار مدیریت پیکربندی مانند Ansible
    • آشنایی با زیرساخت و استوریج ابری
    • تجربه Sys-Admin

مهندس (کلان) داده

  • هدف:
    • ایجاد پایپ لاین های داده با استفاده از ابزار متن باز، برای پردازش batch و بلادرنگ کلان داده، و تنظیم ابزارها برای کار کردن با کارایی مناسب و به صورت مقیاس­پذیر
    • فراهم کردن امکان یکپارچه سازی با منابع داده ای مختلف
  • نیازمندی ها
    • آشنایی با مفاهیم مهندسی داده، مدیریت انواع داده، و مدلسازی داده.
    • آشنایی با کلان داده، ابزارها و تکنولوژی‌های مرتبط مانند: kafka, hdfs, Spark، hive، sqoop و …
    • آشنایی با روش های طراحی و توسعه پایپ‌لاین‌های داده ( جمع­آوری، EDA، تمیز کردن و آماده سازی داده) به صورت مقیاس‌پذیر
    • آشنایی با ابزارهای مدیریت جریان های کاری و پایپ لاین ها مانند Apache AirFlow
    • شناخت Database، Data Warehouse و Data Lake.
    • آشنایی با اصول و مفاهیم پایگاه داده­های sql و nosql
    • اصول مدلسازی داده، و دانش کار کردن با داده ساخت یافته و غیر ساخت یافته
    • شناخت ابزار و روشهای طراحی، توسعه، تست و بهینه سازی فرایندهای ETL
    • آشنایی و تجربه کار کردن با ابزار تحلیل و مصورسازی داده مبتنی بر پایتون/R
    • شناخت ابزار BI
    • آشنایی با پایتون (و ترجیحا اسکالا)، و گیت
    • آشنایی با لینوکس

تحلیل گر/دانشمند داده

  • هدف:
    • دقیق کردن نیازمندیهای ساخت و استقرار مدلهای تحلیل متن، تصویر و صوت
    • مشارکت در خودکارسازی مراحل توسعه، اجرا، تست و استقرار مدل های یادگیری ماشین به صورت محلی و توزیع شده
    • همکاری در ایجاد و خودکارسازی پایپ لاینهای تحلیل داده
  • نیازمندی ها
    • شناخت مفاهیم یادگیری ماشین، یادگیری عمیق، و الگوریتمهای مرتبط
    • شناخت ابزار، کتابخانه­ها و فریم­ورک­های یادگیری ماشین و عمیق
    • آشنایی با روش های اجرای الگوریتمهای یادگیری ماشین به صورت توزیع شده
    • آشنایی با Spark، Kafka و HDFS.
    • شناخت NLP، بینایی ماشین، و تشخیص و تولید صوت
    • شناخت روشهای پیاده سازی و استقرار سرویسهای هوش مصنوعی روی ابر
    • اجرای تحلیل روی کلان­داده و ساخت پایپ لاین
    • مشارکت در ساخت پایپ لاینهای داده ( جمع­آوری، EDA، تمیز کردن و آماده سازی داده)
    • شناخت روشهای اجرای موازی مدلها و تنظیم هایپرپارامترها
    • شناخت روشهای تست و استقرار مدل ها
    • شناخت متریکهای ارزیابی و انواع چارتهای مورد نیاز در ارزیابی خروجی مدلها
    • شناخت و تجربه کار کردن با ابزار تحلیل و مصورسازی داده مبتنی بر پایتون/R
    • شناخت ابزار BI و روشهای تصمیم­گیری بر اساس تحلیل ها و پیش بینی های انجام شده

مهندس ML

  • هدف:
    • خودکارسازی فرایندهای توسعه، تست و استقرار مدل­های یادگیری ماشین به صورت ابری
    • خودکارسازی حرکت داده میان منابع داده ای مختلف و ساخت پایپ لاین تحلیل داده به صورت reusable
    • رابط میان تحلیلگر داده، مهندس داده و مهندس DevOps
  • نیازمندی ها
    • شناخت یادگیری ماشین، یادگیری عمیق، و الگوریتمهای مرتبط
    • شناخت روشها و ابزار استقرار و تست مدل های هوش مصنوعی روی ابر
    • شناخت متریکهای ارزیابی و انواع چارتهای مورد نیاز در ارزیابی خروجی مدلها
    • آشنایی با فرایندها و ابزار MLOPS
    • آشنایی با Automl و ابزار مرتبط
    • آشنایی با پایتون و SQL
    • آشنایی با CI/CD و ابزار مرتبط
    • آشنایی با ابزار اکوسیستم هدوپ مانند hdfs، کافکا، اسپارک، sqoop و … ،
    • آَشنایی با Database، Data Warehouse و Data Lake.
    • شناخت نیازهای طراحی و توسعه­­ای انواع پایگاه داده و مدل های داده ای
    • شناخت ابزار ETL و مشارکت در ساخت پایپ لاینهای داده ( جمع­آوری، EDA، تمیز کردن و آماده سازی داده)
    • مشارکت در ساخت پایپ لاین تحلیل داده