Привет 👋🏻 Что за дичь, обращается к репозиторию gitlab.exemple.com? У меня ip виртуалки VM'варной используется. Уже и в hosts сопоставил имя с ip
Привет 👋 Зачем перезапись каталога 🗃 конфигурации в Hadoop нужна для namenode? hdfs - - config $HADOOP_DIRECT namenode При её запуске консоль пропадает бл.. Не посмотреть нич...
Может пример есть какой-то хороший?
Где в Hadoop прописывается namespaceID кроме как в файликах VERSION в name/current/VERSION journal/current/VERSION??? Просто nsid одинаковый везде, а при назначении какой либ...
Привет 👋 Хорошо всё шло.. Но дальше запнулся и что-то не знаю.. Изучаю Scala потихоньку. Есть | uid | timestamp| --------------------- | 555 | 12356788| | 555 | 16776678| | 55...
Под Scala под Spark Есть какой-то ресурс нормальный, где функции описаны с примерами? А то я в разных сайтах какие-то урывки нахожу и не дальше: while (i <= 10) {🦧} У меня пра...
В одном докере установил Hadoop 2.7.7 +namenode +Zeppelin Был в двух шагах от груды сказочных богатств 🤠🪙💰💎 И блин нифига.. Простая проверка sc.version и RUNNING 0% - Постоянн...
Привет 👋 Какой аналог команды comm (она из bash) в Scala? Надо в одной и другой табличке по три поля одновременно сравнить (ФИО пользователей). Join соединять может.. Но как п...
Ладно, бог с ней.. Выделил ресурсы на каждый узел hadoop по 40гигов и 8 ядер. NN на двух узлах и только на NN эти выделенные ресурсы используются! На остальных DataNode 8Гигов...
d.drop("uid") убрало, но не выводит почему-то.. честно говоря с таким выводом (s"$col" не знаком, может как-то не так надо?
Как посмотреть в метрике ip посетителя? Раньше видел летом, сейчас нет их + одного посетителя нужен срочно ip и устройство было не компьютер, а телефон Samsung 📲 тогда. Сейчас...
Привет 👋 Подскажите, какой по названию файла spark искать для Zeppelin полный? А то коробочный не хочет работать..
Так запросы под Spark на Scala так отличаются что ли? Или я что-то путаю..
Вечер 🌃 добрый.. Как while заголовки колонок перебрать все на Scala под Spark? Подозреваю, что может функция есть, тема то актуальная всегда жж..
Вот подсказали df.columns.forech(println) А дальше да.. В цикл. Ни разу не делал.. Как-то i <= sum(...?
А что не понятно с моим вопросом? Ищу цифры из колонки datetime, которые попадают в диапазон start - end (start и end переменные которые ручками ввожу)
А как там дела обстоят? У них ось с образа устанавливается? Ты загрузиться с их инстанса можешь для восстановления grub?
Apache Zeppelib со сценарием запроса на SparkSql кто может осилить? Пару правок пытаюсю внести никуя не понимаб
Скриншот приложил?
journalctl что пишет?