Всем Привет! Получаю следующий аутпут при сборке на buildah и staged:

true

Version: v1.2.253
Using werf config render file: /tmp/werf-config-render-1580284676
┌ Concurrent build plan (no more than 5 images at the same time)
│ Set #0:
│ - ⛵ image apiapp/stage/python

│ Set #1:
│ - ⛵ image apiapp/stage/python-build-stage

│ Set #2:
│ - ⛵ image apiapp
└ Concurrent build plan (no more than 5 images at the same time)
⛵ image apiapp/stage/python
00:54
┌ ⛵ image apiapp/stage/python
panic: runtime error: invalid memory address or nil pointer dereference
[signal SIGSEGV: segmentation violation code=0x1 addr=0x28 pc=0x311b543]
goroutine 107 [running]:
github.com/werf/werf/pkg/build.(*BuildPhase).AfterImageStages(0xc0010f6940?, {0x400e795?, 0xc0013199b0?}, 0xc00047cd80)
/git/pkg/build/build_phase.go:571 +0x63
github.com/werf/werf/pkg/build.(*Conveyor).doImage.func2()
/git/pkg/build/conveyor.go:729 +0x489
github.com/werf/logboek/internal/stream.(*Stream).logProcess.func1()
/go/pkg/mod/github.com/werf/logboek@v0.5.5/internal/stream/process.go:150 +0x1b
github.com/werf/logboek/internal/stream.(*Stream).logProcess(0xc00139d020, {0xc000c47480?, 0x38?}, 0xc001319a10, 0xc00138ffc0)
/go/pkg/mod/github.com/werf/logboek@v0.5.5/internal/stream/process.go:157 +0x1cf
github.com/werf/logboek/internal/stream.(*LogProcess).DoError(0xc00138ff80, 0xc00138ffc0)
/go/pkg/mod/github.com/werf/logboek@v0.5.5/internal/stream/process_types.go:201 +0xa5
github.com/werf/werf/pkg/build.(*Conveyor).doImage(0x0?, {0x49be408?, 0xc0013199b0}, 0xc00047cd80, {0xc000d3b160, 0x1, 0x1})
/git/pkg/build/conveyor.go:702 +0x198
github.com/werf/werf/pkg/build.(*Conveyor).doImagesInParallel.func3({0x49be408, 0xc0013199b0}, 0x0?)
/git/pkg/build/conveyor.go:657 +0x215
github.com/werf/werf/pkg/util/parallel.DoTasks.func1()
/git/pkg/util/parallel/parallel.go:80 +0x304
created by github.com/werf/werf/pkg/util/parallel.DoTasks
/git/pkg/util/parallel/parallel.go:73 +0x21e
Cleaning up project directory and file based variables
00:01
ERROR: Job failed: exit status 1

7 ответов

62 просмотра

Попробуйте дополнительно включить такой свитч: export WERF_STAGED_DOCKERFILE_VERSION=v2

Сережа K
Спасибо, ща попробую

Тьфу блин, не мне было :)

Evgheni-Mad Автор вопроса
Timofey Kirillov
Попробуйте дополнительно включить такой свитч: exp...

Попробовал, Version: v1.2.253 Using werf config render file: /tmp/werf-config-render-831986531 ┌ Concurrent build plan (no more than 5 images at the same time) │ Set #0: │ - ⛵ image apiapp/stage/python │ │ Set #1: │ - ⛵ image apiapp/stage/python-build-stage │ │ Set #2: │ - ⛵ image apiapp └ Concurrent build plan (no more than 5 images at the same time) ⛵ image apiapp/stage/python ┌ ⛵ image apiapp/stage/python │ ┌ Pulling base image python:3.11-slim-buster │ │ Resolving "python" using unqualified-search registries ↵ │ │ (/home/gitlab-runner/.werf/service/tmp/buildah/instance3217866140/config/registries.conf) │ │ Trying to pull docker.io/library/python:3.11-slim-buster... │ │ Getting image source signatures │ │ Copying blob sha256:91bdacd599c69598dd6fbd7f97f7059b565f6f3015a04b6ab9e8db254a41652c │ │ Copying blob sha256:824416e234237961c9c5d4f41dfe5b295a3c35a671ee52889bfb08d8e257ec4c │ │ Copying blob sha256:482d64d97d4e63625e51301e23ca7ff526afaf40710da26704d9ce2e1a6168fa │ │ Copying blob sha256:8b91b88d557765cd8c6802668755a3f6dc4337b6ce15a17e4857139e5fc964f3 │ │ Copying blob sha256:c87b3089b2ed5584d9a52ddf02017556958f287dd63945476fbcd191954e6faf │ └ Pulling base image python:3.11-slim-buster (3.30 seconds) FAILED └ ⛵ image apiapp/stage/python (4.90 seconds) FAILED Running time 7.07 seconds Error: phase build on image apiapp/stage/python stage FROM handler failed: unable to fetch base image "python:3.11-slim-buster" for stage apiapp/stage/python/FROM1: unable to pull image python:3.11-slim-buster: error pulling image "python:3.11-slim-buster": copying system image from manifest list: writing blob: adding layer with blob "sha256:8b91b88d557765cd8c6802668755a3f6dc4337b6ce15a17e4857139e5fc964f3": processing tar file(potentially insufficient UIDs or GIDs available in user namespace (requested 0:42 for /etc/gshadow): Check /etc/subuid and /etc/subgid if configured locally and run "podman system migrate": lchown /etc/gshadow: invalid argument): exit status 1 Cleaning up project directory and file based variables 00:01 ERROR: Job failed: exit status 1 Проблему с UID и GIDs вроде решил ранее, записав gitlab-runner в нужные файлы командами - echo "gitlab-runner:100001:65537" | sudo tee -a /etc/subuid - echo "gitlab-runner:100001:65537" | sudo tee -a /etc/subgid

Evgheni-Mad Автор вопроса
Evgheni Mad
Попробовал, Version: v1.2.253 Using werf config r...

@ilya_lesikov Илья, а что скажите по поводу моей ошибки? Как вы решаете проблему с gid и uid?

Evgheni Mad
@ilya_lesikov Илья, а что скажите по поводу моей о...

если хотите локально поставить запускать werf через buildah (т. е. без контейнера), то следуйте этой инструкции https://werf.io/documentation/v1.2/?usage=localDev&os=linux&buildBackend=buildah

Похожие вопросы

Обсуждают сегодня

Привет! Вопрос про werf helm Приложение деплоится через werf helm upgrade --atomic Иногда(все условия для воспроизведения до конца непонятны, но есть версия, что это происходи...
𝓐𝓵͢͢͢𝓮𝔁 C
2
Добрый день, подскажите пожалуйста, а как поле project (в werf.yaml) параметризовать ? werf converge —project <APP_NAME> в одном общем репо держим 1 хельм чарт и деплоим с ...
Sulaymon
5
Всем привет. Werf v2.10.5 При удалении релиза вместе с неймспейсом (werf dismiss --namespace namespace_name) Сыпятся ошибки ┌ Waiting for resources elimination: namespaces/rel...
Vitalik Petrov
1
Здрасьти! Делаю Buildah+Docker-multistage. В первом имадже делаю COPY кода. Из них генерю файлы: 31229b03ef2ed26c5e02d0e8320f8a04 ./package.json a0b92a158d0bed9570350af0ed3e...
Vyacheslav
4
Добрый день, подскажите пожалуйста, вопрос не про верф, но приближенный к флант) Есть ли какой-то аналог плагину grafana-statusmap, который новыми версиями графаны поддержива...
ovsss
1
werf cleanup как-то старается не удалять промежуточные имаджи (ранее известные как артефакты)? Уже несколько раз из cache-repo улетал наш базовый node имадж. Что выглядит лог...
Vyacheslav
2
привет! Подскажите пожалуйста, а werf может как-то обойти известную проблему с helm "Secret "sh.helm.release.v1.{.Release}.{.Version}" is invalid: data: Too long: must have at...
ovsss
1
Вопросик не совсем werf. Но вдруг мы подскажите воркэраунд или ещё что-нибудь. Могу ли я как-нибудь в моменте деплоя внутри heml рендера получить хэшсумму файла шаблона (./tem...
Alex Подрябинкин
11
Всем привет. Сегодня добавили в приложение дополнительный образ nginx, в который докидывается системная статика прям в образ. При деплое бандлами деплоилось 200+ джоб(клиентов...
Владимир Муковоз
6
Друзья, добрый день. Прошу подсказать с базовым вопросом по использованию CI переменных gitlab в werf.yaml. Хочу в beforeInstall использовать env переменную с токеном. Мне нуж...
Anton Zol
10
Карта сайта