IDR/IDA (ID Allocator)

IDR과 IDA는 커널에서 희소한 정수 ID를 다루는 공용 할당기입니다. IDR은 ID를 포인터에 연결하고, IDA는 ID 자체만 예약합니다. 공식 문서는 새 코드에서 XArray 직접 사용을 권장하지만, PID namespace처럼 기존 커널 경로에서는 IDR/IDA가 여전히 중요한 인터페이스입니다.

전제 조건: XArray 문서를 먼저 읽으세요. IDR/IDA는 희소 인덱스 저장, 할당형 배열, RCU 조회, 내부 잠금 보조 개념을 XArray와 공유합니다. 특히 "공개 API 의미"와 "버전별 내부 구현 세부"를 분리해서 보는 관점이 중요합니다.
일상 비유: IDR은 보관함 번호표와 물건 보관대를 합친 구조와 비슷합니다. 번호만 뽑는 것이 아니라, 번호에 대응하는 물건 위치까지 찾아야 할 때 씁니다. 반대로 IDA는 빈 번호표만 빌려주고, 실제 물건은 다른 곳에 보관하는 경우에 가깝습니다.

핵심 요약

  • IDR — 정수 ID를 포인터와 연결하는 희소 매핑입니다.
  • IDA — 포인터 없이 ID만 예약하므로 더 가볍습니다.
  • XArray — 공식 문서가 새 코드에 권장하는 기본 도구입니다.
  • RCU 조회idr_find()는 올바른 생명주기 관리가 있으면 RCU 읽기 구간에서 사용할 수 있습니다.
  • preload와 cyclic — 잠금 안쪽 할당 실패를 줄이려면 idr_preload(), 순환 재사용이 필요하면 idr_alloc_cyclic()을 봐야 합니다.

단계별 이해

  1. 무엇이 필요한지 먼저 구분
    ID로 바로 객체를 찾아야 하면 IDR, 번호만 필요하면 IDA, 새 코드에서 일반적인 ID→포인터 매핑이면 XArray 직접 사용을 우선 검토합니다.
  2. 범위 의미를 정확히 고정
    idr_alloc()end는 배타적이고, idr_alloc_u32()ida_alloc_range()의 최대값은 포괄적입니다. 이 차이를 틀리면 경계값 오류가 납니다.
  3. 쓰기 직렬화와 읽기 생명주기 분리
    IDR은 "수정자끼리 충돌하지 않게 만드는 락"과 "조회한 객체를 안전하게 살아 있게 유지하는 규칙"을 따로 설계해야 합니다.
  4. 할당과 해제를 항상 짝지음
    idr_alloc 성공 경로마다 idr_remove, ida_alloc 성공 경로마다 ida_free가 있어야 합니다. 제거 후 객체 해제 시점은 RCU grace period까지 포함해서 봐야 합니다.

개요 (Overview)

IDR(ID Radix tree)과 IDA(ID Allocator)는 "작은 정수 식별자를 빈 슬롯에서 뽑아 재사용한다"는 공통 문제를 푸는 커널 공용 도구입니다. 대표적인 문제 유형은 PID 번호, 네트워크 프로토콜의 식별자, 드라이버 인스턴스 번호, 서브시스템 내부 핸들처럼 희소한 정수 공간을 다루는 경우입니다.

IDR은 할당된 정수와 포인터를 함께 저장합니다. 반대로 IDA는 포인터를 저장하지 않고 "이 정수가 현재 사용 중인지"만 추적합니다. 그래서 IDA는 메모리 효율이 좋고, IDR은 조회 편의성이 좋습니다.

중요: 공식 커널 문서는 IDR 인터페이스가 deprecated라고 명시하고 새 코드에서는 XArray를 권장합니다. 다만 deprecated라는 말이 "즉시 제거"를 뜻하는 것은 아닙니다. 이미 널리 쓰이는 기존 경로와 exported API, 유지보수 비용을 고려하면 IDR을 계속 유지하는 코드도 많습니다.
구현 세부를 과신하면 안 되는 이유: 커널 버전에 따라 struct idr의 내부 필드 타입, helper가 연결되는 방식, 문서 표현이 달라질 수 있습니다. 따라서 문서와 코드에서는 공개 API 계약idr_alloc(), idr_find(), idr_remove(), ida_alloc() 같은 호출 의미를 중심에 두고 설명하는 것이 안전합니다.
도구 저장 대상 잠금 책임 새 코드 권장도 전형적 상황
IDR ID → 포인터 수정자 직렬화는 호출자 책임, 읽기는 RCU 가능 낮음 기존 서브시스템이 이미 struct idr를 노출하거나, 레거시 API와 호환해야 할 때
IDA ID 사용 여부만 IDA가 자체 잠금을 처리 중간 minor/instance 번호처럼 번호만 필요할 때
XArray 범용 인덱스 → 엔트리 일반 API는 내부 잠금, 고급 API는 호출자 책임 높음 새로운 ID→포인터 매핑, mark/iterator/allocating array를 직접 쓰고 싶을 때

개념 구조와 커널 내부 경계

IDR을 이해할 때 가장 중요한 점은 "번호를 뽑는 규칙"과 "객체를 살아 있게 유지하는 규칙"이 분리되어 있다는 점입니다. IDR은 ID를 고르고 포인터를 저장하는 데 도움을 주지만, 객체의 refcount, RCU 해제 시점, 상위 서브시스템 락 계층은 대신 설계해 주지 않습니다.

IDR 개념 구조와 API 계층 IDR는 API, 상태, 저장 계층이 겹쳐 동작한다 1. 호출자 정책 계층 ID 범위 정책 writer 직렬화 객체 refcount RCU 해제 시점 오류 경로 정리 2. IDR API 계층 idr_alloc() idr_alloc_cyclic() idr_find() / idr_remove() 3. IDR 상태 계층 • base offset • cyclic cursor (idr_next) • sparse tree root 4. 동시성 규칙 • writer는 같은 IDR 수정 경합 금지 • reader는 rcu_read_lock() 가능 • 생명주기는 별도 refcount/RCU로 관리 5. 실제 저장 계층 희소 트리와 allocating array 동작은 커널 버전에 따라 내부 연결 방식이 달라질 수 있다 중요한 것은 "API가 어떤 ID를 언제 보이게 하는가"이며, 구조체 내부 타입 이름 자체가 아니다

IDR API

공식 문서 기준으로 IDR 사용의 핵심은 세 가지입니다. 할당(idr_alloc, idr_alloc_cyclic, idr_alloc_u32), 조회(idr_find), 수정/해제(idr_replace, idr_remove)입니다. 나머지 iterator와 preload는 실전에서 빠지기 쉬운 보조 도구입니다.

API 의미 실전 메모
idr_alloc() 미사용 ID를 잡고 포인터 저장 start는 포괄적, end는 배타적입니다. end <= 0이면 사실상 INT_MAX + 1로 취급됩니다.
idr_alloc_cyclic() 마지막 cursor 이후부터 순환 검색 공평한 재사용이 필요할 때 좋지만, 높은 ID 공간을 훑을 수 있어 일반 idr_alloc()보다 약간 비쌀 수 있습니다.
idr_alloc_u32() u32 범위에서 ID 할당 여기서 max는 포괄적입니다. idr_alloc()end와 의미가 다릅니다.
idr_find() ID로 포인터 조회 RCU 읽기 구간에서 사용 가능하지만, 반환된 객체의 생명주기 보장은 호출자 몫입니다.
idr_replace() 기존 ID에 연결된 포인터 교체 NULL로 예약한 슬롯을 완전히 초기화한 객체로 publish할 때 자주 씁니다.
idr_remove() ID를 제거하고 이전 포인터 반환 반환된 포인터를 즉시 kfree()해도 되는지 여부는 RCU reader 존재 여부로 결정됩니다.
idr_for_each_entry(), idr_get_next() 순회 대량 정리와 dump 경로에 유용합니다. RCU 보호 하에서는 삭제된 항목이 보일 수 있습니다.
idr_destroy() IDR 내부 노드 정리 저장된 payload 객체는 해제하지 않습니다. 먼저 iterator로 payload를 치워야 합니다.

기본 사용 표면

/* 정적/동적 초기화 */
DEFINE_IDR(session_idr);
struct idr dyn_idr;
idr_init(&dyn_idr);

/* 1 이상 ID를 잡고 포인터 저장 */
int id = idr_alloc(&session_idr, session, 1, 0, GFP_KERNEL);

/* 순환 재사용 */
int cyc = idr_alloc_cyclic(&session_idr, session, 1, 0, GFP_KERNEL);

/* u32 상한 지정. max는 inclusive */
u32 nextid = 1024;
idr_alloc_u32(&session_idr, session, &nextid, 65535, GFP_KERNEL);

/* 조회와 제거 */
session = idr_find(&session_idr, id);
old = idr_remove(&session_idr, id);

/* 슬롯 예약 후 publish */
id = idr_alloc(&session_idr, NULL, 1, 0, GFP_KERNEL);
idr_replace(&session_idr, session, id);
기억할 점: idr_find()NULL을 반환했다고 해서 반드시 "존재하지 않음"은 아닙니다. 일부 코드 경로는 먼저 NULL로 ID를 예약한 뒤, 초기화가 끝난 후 idr_replace()로 객체를 publish합니다.

잠금 안쪽 할당과 preload 패턴

같은 IDR에 대한 writer 경합을 막으려면 상위 락을 잡아야 합니다. 문제는 그 락을 잡은 상태에서 GFP_KERNEL 할당이 곤란할 수 있다는 점입니다. 이때 공식 문서가 제시하는 안전한 습관이 idr_preload()입니다.

DEFINE_IDR(ctx_idr);
static DEFINE_SPINLOCK(ctx_lock);

int ctx_register(struct ctx *ctx)
{
    int id;

    idr_preload(GFP_KERNEL);
    spin_lock(&ctx_lock);
    id = idr_alloc(&ctx_idr, ctx, 1, 0, GFP_NOWAIT);
    spin_unlock(&ctx_lock);
    idr_preload_end();

    if (id < 0)
        return id;

    ctx->id = id;
    return 0;
}

idr_preload()는 "필요한 내부 노드 메모리를 미리 마련해 두고 락 안쪽에서는 가능한 한 비수면 경로로 넣는다"는 의도입니다. 모든 락 경로에 무조건 필요한 것은 아니지만, spinlock 안에서 IDR을 건드리는 코드라면 거의 항상 검토해야 합니다.

RCU 조회와 안전한 객체 취득

IDR은 조회 함수만으로 객체 생명주기를 보장하지 않습니다. 따라서 lockless lookup이 필요하면 보통 다음과 같이 "RCU 조회 + refcount 확보 + 실패 시 버리기" 패턴을 씁니다.

struct ctx *ctx_lookup_get(int id)
{
    struct ctx *ctx;

    rcu_read_lock();
    ctx = idr_find(&ctx_idr, id);
    if (ctx && !refcount_inc_not_zero(&ctx->refs))
        ctx = NULL;
    rcu_read_unlock();

    return ctx;
}

이 패턴이 필요한 이유는 간단합니다. idr_find()는 포인터만 돌려주고, 그 포인터가 이미 제거 단계인지 아닌지까지 알 수 없기 때문입니다.

IDA API

IDA는 "번호만 필요하고 번호로 직접 포인터를 찾을 필요는 없다"는 경우를 위한 할당기입니다. 공식 문서와 헤더 모두 IDA가 자체 잠금을 처리한다고 설명합니다. 그래서 대부분의 경우 호출자 락 없이 ida_alloc()ida_free()를 부를 수 있습니다.

DEFINE_IDA(minor_ida);

/* 0..INT_MAX 범위 */
int a = ida_alloc(&minor_ida, GFP_KERNEL);

/* 하한만 지정 */
int b = ida_alloc_min(&minor_ida, 100, GFP_KERNEL);

/* 상한만 지정. max는 inclusive */
int c = ida_alloc_max(&minor_ida, 255, GFP_KERNEL);

/* 범위 지정. max는 inclusive */
int d = ida_alloc_range(&minor_ida, 32, 63, GFP_KERNEL);

ida_free(&minor_ida, d);
if (ida_is_empty(&minor_ida))
    pr_info("더 이상 예약된 번호가 없음\n");

ida_destroy(&minor_ida);
deprecated API: 헤더는 ida_simple_get(), ida_simple_remove()를 deprecated로 표시합니다. 새 코드는 ida_alloc(), ida_alloc_min(), ida_alloc_max(), ida_alloc_range(), ida_free() 조합으로 쓰는 편이 맞습니다.

IDA 내부 비트맵과 청크 구조

IDA는 포인터를 저장하지 않기 때문에, 내부적으로는 "어느 ID가 사용 중인지"를 비트 단위로 추적하는 쪽이 훨씬 효율적입니다. 현재 헤더 기준으로 IDA는 struct xarray를 감싸고, 각 chunk는 128바이트 bitmap을 사용합니다. 이는 64비트와 32비트 환경 모두에서 1024개 ID를 한 chunk가 표현한다는 뜻입니다.

IDA의 XArray와 비트맵 청크 구조 IDA는 포인터 대신 "1비트당 1 ID"를 관리한다 struct ida xa: allocating XArray locking: IDA 내부 처리 payload pointer는 저장하지 않음 XArray slot이 IDA bitmap chunk를 가리킨다 slot 0 ID 0 - 1023 담당 bitmap 1024비트 예: bit 7 = ID 7 사용 중 slot 1 ID 1024 - 2047 담당 필요할 때만 청크 생성 희소 범위에 유리 한 chunk 안쪽 비트맵 예시 0 1 2 3 4 5 6 7 초록 칸은 이미 할당된 ID, 비어 있는 칸은 다음 ida_alloc() 후보가 된다

잠금, RCU, 생명주기

IDR/IDA 문서를 읽을 때 가장 많이 놓치는 부분은 "번호를 잘 뽑는 것"과 "조회한 객체를 안전하게 쓰는 것"이 같은 문제가 아니라는 점입니다. IDA는 잠금 책임이 비교적 단순하지만, IDR은 상위 서브시스템의 락 계층과 객체 생명주기 정책을 반드시 함께 설계해야 합니다.

연산 IDR 쪽 규칙 IDA 쪽 규칙 핵심 위험
할당 같은 IDR에 대한 동시 수정은 호출자가 직렬화 대체로 외부 락 불필요 락 안쪽 메모리 할당 실패, 범위 고갈
조회 rcu_read_lock() 또는 writer 배제 필요 조회 API 자체가 없음 조회 직후 객체가 해제되는 use-after-free
제거 idr_remove() 후 즉시 free 가능 여부를 reader 존재 여부로 판단 ida_free() 후 번호 재사용 시작 ID 재사용과 객체 해제 시점이 엇갈리는 문제
파괴 idr_destroy() 전에 payload 정리 필요 ida_destroy()는 예약 상태만 비움 내부 구조만 비우고 실제 객체가 남는 누수
IDR의 예약, publish, 조회, 제거, RCU 해제 흐름 IDR는 번호 배정과 객체 해제를 분리해서 관리해야 한다 1. preload idr_preload(GFP_KERNEL) 락 안쪽 실패 확률 감소 2. 예약 spin_lock() idr_alloc(idr, NULL, ...) 3. 초기화와 publish 객체 필드 채움 idr_replace(idr, obj, id) 4. reader lookup rcu_read_lock() + idr_find() refcount_inc_not_zero() 성공 시에만 사용 5. 제거 spin_lock() idr_remove(idr, id) 이후 새 할당이 같은 ID를 재사용할 수 있음 6. grace period call_rcu() 또는 synchronize_rcu() 기존 reader가 빠져나갈 때까지 대기 7. 실제 해제 kfree(obj) 또는 kmem_cache_free()

실사용 사례

정정해야 할 오해: 현재 커널의 파일 디스크립터 할당은 fdtable + bitmap 경로를 사용하고, alloc_chrdev_region()도 별도의 문자 디바이스 번호 관리 경로를 사용합니다. 둘 다 "정수 ID를 관리한다"는 점에서는 같은 문제군이지만, 곧바로 IDR/IDA의 현재 구현 사례로 적으면 사실관계가 틀어집니다.

PID namespace의 IDR 사용

현재 커널에서 가장 대표적인 실사용 예시는 kernel/pid.c입니다. 각 pid_namespace는 자체 IDR을 가지고, PID 번호를 먼저 예약한 뒤 struct pid 초기화가 끝나면 idr_replace()로 publish합니다.

/* kernel/pid.c의 핵심 흐름을 축약한 예 */
struct pid_namespace {
    struct idr idr;
    /* ... */
};

idr_preload(GFP_KERNEL);
spin_lock(&pidmap_lock);

nr = idr_alloc_cyclic(&ns->idr, NULL, pid_min, pid_max, GFP_ATOMIC);
if (nr >= 0) {
    pid->numbers[0].nr = nr;
    /* partially initialized PID를 reader가 보지 않게 마지막에 publish */
    idr_replace(&ns->idr, pid, nr);
}

spin_unlock(&pidmap_lock);
idr_preload_end();

이 패턴의 핵심은 두 가지입니다. 첫째, 번호는 먼저 예약하되 객체 공개는 마지막에 한다. 둘째, PID 조회 함수는 부분 초기화 객체를 보면 안 된다. 이 두 요구가 NULL 예약과 idr_replace() 조합으로 해결됩니다.

서브시스템 내부 핸들 테이블

IDR은 특정 커널 객체를 식별하는 내부 핸들 테이블에도 잘 맞습니다. 예를 들어 드라이버가 userspace에 "세션 ID" 같은 번호를 돌려주고 이후 ioctl이나 netlink 요청에서 그 번호로 객체를 찾아야 한다면, IDR은 여전히 읽기 좋은 선택지입니다.

struct session {
    int id;
    refcount_t refs;
    struct rcu_head rcu;
};

DEFINE_IDR(session_idr);
static DEFINE_MUTEX(session_lock);

int session_create(struct session *s)
{
    int id;

    idr_preload(GFP_KERNEL);
    mutex_lock(&session_lock);
    id = idr_alloc(&session_idr, s, 1, 0, GFP_NOWAIT);
    mutex_unlock(&session_lock);
    idr_preload_end();

    if (id < 0)
        return id;

    s->id = id;
    return 0;
}

IDA로 인스턴스 번호만 예약하는 예

반대로 객체 포인터는 해시테이블, 배열, 리스트 등 다른 곳에 이미 있고 "중복 없는 번호만 필요"하다면 IDA가 더 적합합니다. 예를 들어 드라이버가 내부 instance 번호나 제한된 범위의 minor 후보를 잡아야 하는 경우입니다.

DEFINE_IDA(inst_ida);

int mydev_probe(struct platform_device *pdev)
{
    int inst;

    inst = ida_alloc_range(&inst_ida, 0, 255, GFP_KERNEL);
    if (inst < 0)
        return inst;

    /* pdev와 inst를 다른 자료구조에 저장 */
    return 0;
}

void mydev_remove(int inst)
{
    ida_free(&inst_ida, inst);
}

IDR vs IDA vs XArray

비교 항목 IDR IDA XArray
주목적 ID → 포인터 매핑 번호만 예약 범용 인덱스 기반 저장
메모리 효율 중간 매우 좋음 용도에 따라 다름
조회 idr_find() 없음 xa_load()
순회 idr_for_each_entry() 필요 없음 xa_for_each()
동시성 표면 호출자 설계 비중 큼 상대적으로 단순 일반 API와 고급 API 선택 가능
새 코드 적합성 낮음 번호만 필요하면 좋음 높음

선택 기준 플로우차트

IDR, IDA, XArray 선택 플로우차트 정수 ID 도구 선택은 "무엇을 저장할 것인가"가 먼저다 중복 없는 정수 ID가 필요하다 ID로 바로 객체 포인터를 찾아야 하는가? 아니오 IDA 번호만 예약 자체 잠금 기존 인터페이스 또는 서브시스템이 struct idr를 이미 전제로 하는가? 아니오 XArray 새 코드 기본 선택 allocating array 가능 IDR 레거시 API 유지 RCU/락 설계 필요 IDs가 매우 작고 촘촘하며 상한이 고정이면, 단순 배열이나 bitmap이 더 낫다

성능 특성

IDR/IDA 성능을 단순한 한 줄 수치로 말하는 것은 위험합니다. 실제 비용은 현재 살아 있는 엔트리 수, 가장 높은 사용 ID, 순차/순환 할당 패턴, 락 경합, cache locality에 따라 크게 달라집니다. 따라서 아래 표는 절대 수치가 아니라 설계 판단 기준으로 봐야 합니다.

관점 IDR/IDA 특성 설계 해석
할당/조회/제거 희소 트리 기반이라 보통 O(log n) 성격 상한이 매우 작은 고정 배열보다 일반적으로 무겁지만, 희소 공간에는 훨씬 유연합니다.
순회 엔트리 수에 비례 debug dump에는 적절하지만 hot path 순회는 피하는 편이 좋습니다.
높은 ID 공간 트리 깊이와 탐색 범위가 늘어날 수 있음 idr_alloc_cyclic()는 공평하지만 높은 high-water mark에서는 조금 더 비쌀 수 있습니다.
IDA 메모리 효율 1비트당 1 ID + chunk metadata 포인터 저장이 필요 없으면 IDR보다 훨씬 경제적입니다.
락 안쪽 할당 실패 내부 노드 생성이 필요하면 실패 가능 idr_preload()로 실패 표면을 줄일 수 있습니다.
성능 수치를 문서에 적을 때의 원칙: workload, ID 분포, CPU 수, 락 경합 조건 없이 "몇 퍼센트 빨라졌다" 같은 문장은 유지보수 문서에 거의 도움이 되지 않습니다. 커널 공식 문서도 정량 수치보다 API 성격과 락 모델, 사용 패턴을 중심으로 설명합니다.

XArray로 마이그레이션

공식 문서가 권장하는 방향은 명확합니다. 새 코드에서 IDR이 꼭 필요한 공개 ABI나 레거시 호출 체인이 없다면, XArray를 직접 사용하는 편이 기능 면에서도 더 직관적입니다. allocating XArray는 ID 할당 문제를 거의 동일하게 풀 수 있고, mark/iterator/advanced API까지 바로 확장할 수 있습니다.

IDR 관점 XArray 대응 메모
DEFINE_IDR(name) DEFINE_XARRAY_ALLOC(name) allocating XArray여야 xa_alloc() 계열 사용 가능
idr_alloc() xa_alloc() XA_LIMIT(min, max)로 범위 지정
idr_alloc_cyclic() xa_alloc_cyclic() cursor를 별도로 관리
idr_find() xa_load() lookup semantics를 직접 더 세밀하게 제어 가능
idr_remove() xa_erase() 실제 객체 해제는 별도
idr_for_each_entry() xa_for_each() iterator 표현이 더 풍부함
/* 기존 IDR 스타일 */
DEFINE_IDR(obj_idr);
id = idr_alloc(&obj_idr, obj, 1, 0, GFP_KERNEL);
obj = idr_find(&obj_idr, id);
idr_remove(&obj_idr, id);

/* 새 코드의 XArray 스타일 */
DEFINE_XARRAY_ALLOC(obj_xa);
u32 id;

if (!xa_alloc(&obj_xa, &id, obj, XA_LIMIT(1, UINT_MAX), GFP_KERNEL))
    obj = xa_load(&obj_xa, id);

xa_erase(&obj_xa, id);
마이그레이션 판단 기준: 내부 구현만 바꾸는 것이 아니라 주변 코드가 이미 struct idr helper, iterator, lock ordering을 전제로 짜여 있으면 교체 비용이 큽니다. "새 코드라면 XArray", "기존 공개 표면이면 IDR 유지"라는 원칙이 보통 가장 실용적입니다.

IDR/IDA 운영 루틴

ID 할당기는 겉으로는 단순해 보여도, 운영 사고는 대부분 해제 누락, 범위 오해, RCU 생명주기 누락에서 나옵니다. 코드 리뷰 때는 아래 항목을 기계적으로 확인하는 편이 낫습니다.

  1. 범위 정의를 코드에 드러냈는가
    1..pid_max, 0..255 같은 정책 범위를 상수나 helper로 명시하고, inclusive/exclusive 의미를 주석으로 남깁니다.
  2. writer 직렬화가 분명한가
    같은 IDR을 수정하는 모든 경로가 동일한 mutex/spinlock/irq-safe lock 규칙을 따르는지 확인합니다.
  3. 조회 후 객체를 붙잡는 방법이 있는가
    RCU reader가 있다면 refcount, kref, 혹은 명시적 grace period를 통해 use-after-free를 막는 경로가 있어야 합니다.
  4. 실패 코드가 구분되는가
    -ENOSPC는 범위 고갈, -ENOMEM은 메모리 부족입니다. 둘을 같은 메시지로 뭉개면 운영 분석이 어려워집니다.
  5. destroy의 의미를 정확히 아는가
    idr_destroy(), ida_destroy()는 내부 자료구조 정리일 뿐, payload 객체 free까지 대신해 주지 않습니다.
  6. deprecated helper가 남아 있지 않은가
    ida_simple_get(), ida_simple_remove()는 현대 코드 기준으로 교체 대상입니다.
  7. NULL 예약 패턴의 의미를 팀이 공유하는가
    NULL이 "없음"인지 "예약됨"인지 애매하면 디버깅이 매우 어려워집니다.
장애 유형 증상 주된 원인 대응
ID 고갈 -ENOSPC 증가, 특정 범위에서 신규 생성 실패 해제 누락, 범위가 지나치게 작음 성공/오류 경로의 idr_remove()/ida_free() 짝 확인
use-after-free RCU reader에서 간헐적 크래시 조회 후 refcount 미확보, 제거 직후 즉시 free RCU grace period와 refcount 정책 재점검
중복 공개 동일 ID에 잘못된 객체가 보임 writer 직렬화 실패 모든 수정 경로가 동일 락을 쓰는지 audit
off-by-one 상한 ID가 예상보다 빠지거나 넘침 end 배타/포괄 차이 오해 idr_alloc()ida_alloc_range()의 범위 의미를 분리 문서화

IDR 레이어 구조 심화

IDR은 겉으로는 단순한 "ID→포인터" 매핑이지만, 내부적으로는 XArray를 백엔드로 사용하는 radix tree 구조입니다. idr_alloc()가 빈 슬롯을 찾는 과정은 이 트리를 탐색하면서 "사용 중이지 않은 인덱스"를 검색하는 것과 같습니다.

역사적 맥락: 초기 커널의 IDR은 자체 radix tree 구현(struct idr_layer)을 가지고 있었습니다. 커널 4.20 이후 Matthew Wilcox의 XArray 도입과 함께 IDR의 내부 구현이 XArray 위의 래퍼로 전환되었습니다. 공개 API인 idr_alloc(), idr_find() 등은 그대로 유지되었으므로, 기존 호출자는 변경 없이 동작합니다.

XArray 백엔드 구조

현재 struct idr은 내부에 struct xarray를 감싸고 있습니다. idr_alloc()를 호출하면 실제로는 xa_alloc() 경로를 통해 XArray의 radix tree를 탐색합니다. 이 과정에서 XArray의 각 노드(struct xa_node)는 최대 64개(또는 16개, 아키텍처에 따라 다름)의 슬롯을 가지고, 빈 슬롯을 비트맵으로 추적합니다.

IDR의 XArray 백엔드 radix tree 구조 IDR은 XArray radix tree를 감싸서 ID→포인터 매핑을 구현한다 struct idr idr_rt: struct xarray idr_base, idr_next XArray Root (xa_head) xa_flags: XA_FLAGS_ALLOC | XA_FLAGS_LOCK_IRQ 등 struct xa_node (Level 1) slot[0] slot[1] slot[2] slot[3] ... slot[62] slot[63] 사용 중 (포인터 저장) 빈 슬롯 (할당 후보) ID 공간 분할 (XA_CHUNK_SIZE = 64 기준) ID 0-63 (slot 0) ID 64-127 (slot 1) ID 128-191 (slot 2) ... ID 4032-4095 (slot 63)

xa_node 구조와 트리 깊이

XArray의 각 노드(struct xa_node)는 아키텍처에 따라 XA_CHUNK_SIZE개의 슬롯을 가집니다. 64비트 시스템에서 XA_CHUNK_SHIFT는 6이므로, 각 노드는 2^6 = 64개 슬롯을 가집니다.

트리 깊이 커버 가능한 인덱스 범위 필요한 조건
0 (단일 엔트리) 인덱스 0만 xa_head가 직접 엔트리를 가리킴
1 0 ~ 63 노드 1개, 64 슬롯
2 0 ~ 4,095 루트 + 리프 노드들
3 0 ~ 262,143 대부분의 PID 범위 커버
4 0 ~ 16,777,215 대규모 네트워크 핸들
5 0 ~ 1,073,741,823 INT_MAX 부근
6 0 ~ ULONG_MAX 전체 인덱스 공간
실전에서의 트리 깊이: PID의 기본 최대값(32768)은 트리 깊이 3이면 충분합니다. DRM 핸들이나 네트워크 세션처럼 수만 개 수준의 ID를 쓰는 경우에도 깊이 3~4를 넘기 어렵습니다. 따라서 idr_alloc()idr_find()의 실질적인 비용은 대부분의 워크로드에서 매우 낮습니다.
/* include/linux/xarray.h */
struct xa_node {
    unsigned char shift;      /* 이 노드의 비트 시프트 */
    unsigned char offset;     /* 부모에서의 슬롯 위치 */
    unsigned char count;      /* 사용 중인 슬롯 수 */
    unsigned char nr_values;  /* 값 엔트리 수 */
    struct xa_node *parent;  /* 부모 노드 */
    struct xarray *array;    /* 소속 XArray */
    union {
        struct list_head private_list;
        struct rcu_head rcu_head;
    };
    void __rcu *slots[XA_CHUNK_SIZE]; /* 64개 슬롯 */
    union {
        unsigned long tags[XA_MAX_MARKS][XA_MARK_LONGS];
        unsigned long marks[XA_MAX_MARKS][XA_MARK_LONGS];
    };
};

idr_alloc() 트리 탐색 과정

idr_alloc()가 빈 슬롯을 찾는 과정은 다음과 같습니다.

  1. 범위 변환: startend에서 idr_base를 빼서 XArray 인덱스 공간으로 변환합니다.
  2. XArray alloc 호출: xa_alloc()에 변환된 범위를 전달합니다.
  3. 노드 탐색: XArray는 루트에서 시작하여 각 레벨의 xa_node를 내려가면서, 빈 슬롯이 있는 첫 번째 경로를 찾습니다.
  4. 빈 슬롯 비트맵 확인: 각 xa_node는 어떤 슬롯이 비어 있는지를 marks 배열로 추적합니다. XA_FREE_MARK가 설정된 슬롯이 할당 후보입니다.
  5. 노드 생성: 필요하면 새 xa_node를 할당합니다. 이때 GFP 플래그가 중요해집니다.
  6. 포인터 저장: 빈 슬롯에 사용자 포인터를 저장하고, free mark를 해제합니다.
/* idr_alloc()의 핵심 흐름 (lib/idr.c 기반 축약) */
int idr_alloc(struct idr *idr, void *ptr,
              int start, int end, gfp_t gfp)
{
    u32 id = start;
    int ret;

    if (WARN_ON_ONCE(start < 0))
        return -EINVAL;

    /* end를 XArray의 max로 변환 */
    int max = end > 0 ? end - 1 : INT_MAX;

    /* XArray 내부 인덱스 공간으로 변환 */
    id -= idr->idr_base;
    max -= idr->idr_base;

    /* xa_alloc()이 실제 트리 탐색과 슬롯 배정을 수행 */
    ret = xa_alloc(&idr->idr_rt, &id, ptr,
                   XA_LIMIT(id, max), gfp);
    if (ret)
        return ret;

    return id + idr->idr_base;
}
XA_FREE_MARK의 역할: XArray는 XA_FREE_MARK라는 내부 마크를 사용하여 "이 슬롯은 비어 있으므로 할당 가능"이라는 상태를 추적합니다. 이 마크는 노드 계층을 따라 전파되어, 상위 노드만 확인해도 하위에 빈 슬롯이 있는지 빠르게 판단할 수 있습니다. 따라서 idr_alloc()의 시간 복잡도는 트리 깊이에 비례하는 O(log n)이 됩니다.
idr_alloc()의 빈 슬롯 탐색 과정 idr_alloc()는 XA_FREE_MARK를 따라 빈 슬롯을 탐색한다 1단계: 범위 변환 start - idr_base end → XA_LIMIT max 2단계: 루트 진입 xa_head에서 시작 FREE_MARK 확인 3단계: 노드 하강 FREE_MARK 있는 자식으로 리프까지 반복 4단계: 슬롯 배정 포인터 저장 FREE_MARK 해제 XArray 트리 탐색 예시 (ID 5 할당 요청) root xa_node [FREE] node[0]: ID 0-63 [FREE] node[1]: ID 64-127 0 1 2 3 4 5 빨간색: 이미 사용 중 | 초록색(5): FREE_MARK가 있으므로 이 슬롯에 할당

IDA 비트맵 내부 구조

IDA는 포인터를 저장하지 않으므로, 각 ID의 사용 여부를 1비트로 추적합니다. 내부적으로 XArray의 각 슬롯이 struct ida_bitmap을 가리키고, 각 비트맵은 1024개의 ID를 관리합니다. 이 2단계 구조 덕분에 희소한 ID 공간에서도 메모리 효율이 매우 좋습니다.

ida_bitmap 구조체 레이아웃

커널 헤더(include/linux/idr.h)에 정의된 struct ida_bitmap은 다음과 같습니다.

/* include/linux/idr.h */
#define IDA_BITMAP_LONGS  (1024 / 8 / sizeof(long))
/* 64비트: 1024/8/8 = 16 longs = 128 bytes */
/* 32비트: 1024/8/4 = 32 longs = 128 bytes */

struct ida_bitmap {
    unsigned long bitmap[IDA_BITMAP_LONGS];
};
작은 ID 최적화: XArray에서 XA_CHUNK_SIZE 이하의 작은 ID들은 별도의 ida_bitmap을 할당하지 않고, XArray 엔트리 자체에 비트를 인코딩할 수 있습니다. 이 최적화는 XA_ZERO_ENTRY와 태그된 포인터를 활용하여, 대부분의 드라이버에서 사용하는 0~63 범위의 ID 할당에서 추가 메모리 할당을 피합니다.
IDA의 XArray + ida_bitmap 2단계 구조 IDA는 XArray 슬롯마다 1024비트 비트맵을 연결한다 1단계: XArray (struct ida → struct xarray) XA slot[0] → ida_bitmap (ID 0-1023) XA slot[1] → ida_bitmap (ID 1024-2047) XA slot[2] NULL (미사용) XA slot[N] → ida_bitmap 2단계: struct ida_bitmap (slot[0] 상세) bitmap[0] (long 0): 비트 0-63 bitmap[1] (long 1): 비트 64-127 bitmap[15] (long 15): 비트 960-1023 bitmap[0] 비트 레이아웃: 0 1 2 3 4 5 6 7 … 63 ■ 할당됨 □ 미할당 (다음 ida_alloc 후보) ida_alloc_range()의 빈 비트 탐색 흐름 XA 슬롯 선택 start / 1024 ida_bitmap 로드 NULL이면 새로 할당 find_first_zero_bit bitmap에서 빈 비트 탐색 비트 설정 및 ID 반환 slot_idx * 1024 + bit

IDA 메모리 효율 분석

IDA의 2단계 비트맵 구조가 실제로 얼마나 메모리 효율적인지 비교합니다.

ID 수 IDA 메모리 (추정) IDR 메모리 (추정) 고정 비트맵 IDA 절감률
100 ~256B (1 bitmap + XA 노드) ~6.4KB (100 포인터 + 노드) 13B (100/8) IDR 대비 96%
1,000 ~384B (1 bitmap, 대부분 같은 청크) ~64KB 125B IDR 대비 99%
10,000 ~1.6KB (10 bitmap) ~640KB 1.3KB IDR 대비 99.7%
100,000 (희소) 사용 범위에 비례 사용 범위에 비례 12.5KB (고정) 희소 시 고정보다 유리
작은 ID 최적화의 실제 효과: 드라이버에서 ida_alloc_range(&minor_ida, 0, 255, GFP_KERNEL)처럼 작은 범위를 사용하면, XArray의 인라인 비트 인코딩으로 ida_bitmap 할당 자체가 발생하지 않을 수 있습니다. 이 경우 IDA의 메모리 오버헤드는 struct ida 자체 크기(약 24B)뿐입니다.

ida_alloc_range() 내부 동작

ida_alloc_range()가 빈 ID를 찾는 과정은 다음과 같습니다.

/* lib/idr.c 기반 축약 */
int ida_alloc_range(struct ida *ida,
                     unsigned int min, unsigned int max,
                     gfp_t gfp)
{
    XA_STATE(xas, &ida->xa, min / IDA_BITMAP_BITS);
    unsigned bit = min % IDA_BITMAP_BITS;
    struct ida_bitmap *bitmap;
    unsigned long flags;

    xa_lock_irqsave(&ida->xa, flags);
retry:
    bitmap = xas_find_marked(&xas, max / IDA_BITMAP_BITS,
                              XA_FREE_MARK);
    if (xas_error(&xas))
        goto err;

    if (bitmap) {
        /* 기존 비트맵에서 빈 비트 탐색 */
        bit = find_next_zero_bit(bitmap->bitmap,
                                  IDA_BITMAP_BITS, bit);
        if (bit < IDA_BITMAP_BITS) {
            __set_bit(bit, bitmap->bitmap);
            /* 비트맵이 가득 차면 FREE_MARK 해제 */
            if (bitmap_full(bitmap->bitmap, IDA_BITMAP_BITS))
                xas_clear_mark(&xas, XA_FREE_MARK);
            goto out;
        }
    }
    /* 비트맵이 없거나 가득 찼으면 다음 슬롯으로 */
    bit = 0;
    goto retry;

out:
    xa_unlock_irqrestore(&ida->xa, flags);
    return xas.xa_index * IDA_BITMAP_BITS + bit;
}

Cyclic 할당 메커니즘

일반 idr_alloc()는 항상 가장 낮은 빈 ID를 반환합니다. 하지만 네트워크 프로토콜 식별자나 트랜잭션 ID처럼 최근에 사용된 ID를 빠르게 재사용하면 안 되는 경우가 있습니다. 이때 idr_alloc_cyclic()은 마지막으로 할당한 위치의 다음부터 검색을 시작합니다.

순환 할당의 비용: cyclic 할당은 ID 공간 전체를 한 바퀴 돌 수 있으므로, 최악의 경우 모든 슬롯을 확인해야 합니다. ID 공간이 넓고 대부분 비어 있으면 문제가 없지만, 거의 가득 찬 상태에서 cyclic 할당을 반복하면 성능이 크게 저하될 수 있습니다.

idr_alloc_cyclic() 구현 분석

idr_alloc_cyclic()의 핵심은 idr_next 커서입니다. 이 커서는 마지막 할당 위치를 기억하고, 다음 할당 시 그 위치부터 검색을 시작합니다.

/* lib/idr.c 기반 축약 */
int idr_alloc_cyclic(struct idr *idr, void *ptr,
                      int start, int end, gfp_t gfp)
{
    u32 id = idr->idr_next;   /* 이전 할당 위치 + 1 */
    int err, max = end > 0 ? end - 1 : INT_MAX;

    /* 1. cursor 위치부터 max까지 시도 */
    if ((int)id < start)
        id = start;

    err = idr_alloc_u32(idr, ptr, &id, max, gfp);
    if ((err == -ENOSPC) && (id > start)) {
        /* 2. 끝까지 갔으면 start부터 다시 (wraparound) */
        id = start;
        err = idr_alloc_u32(idr, ptr, &id, max, gfp);
    }

    if (!err)
        idr->idr_next = id + 1;  /* 커서 갱신 */

    return err ? err : id;
}
idr_alloc_cyclic()의 순환 할당과 wraparound 동작 cyclic 할당은 커서 위치에서 시작하여 순환 검색한다 ID 공간 (start ~ max) start 사용 사용 커서 idr_next ← 다음 할당! 사용 사용 검색 방향 Cyclic 할당 단계 1단계 커서(idr_next) 위치에서 시작 커서부터 max까지 빈 ID 탐색 2단계 max까지 못 찾으면 (ENOSPC) start부터 다시 탐색 (wraparound) 3단계 빈 ID 발견: 포인터 저장 idr_next = id + 1 (커서 갱신) 실패 전체 범위에 빈 ID 없음 → -ENOSPC 반환 사용 사례: PID 할당, 네트워크 트랜잭션 ID, SCSI 커맨드 태그, DRM fence seqno 핵심: 최근 해제된 ID의 즉시 재사용을 피함

Cyclic 할당 실사용 사례

커널에서 idr_alloc_cyclic()을 사용하는 대표적인 서브시스템들을 정리합니다.

서브시스템 소스 위치 사용 이유 ID 범위
PID 할당 kernel/pid.c PID 예측 방지, 공평한 재사용 1 ~ pid_max (기본 32768)
SCSI 커맨드 태그 drivers/scsi/ 커맨드 완료 전 재사용 방지 0 ~ queue_depth
IPC (System V) ipc/util.c IPC 식별자 순환 재사용 0 ~ IPCMNI
네트워크 프로토콜 다양한 프로토콜 드라이버 세션/트랜잭션 ID 재사용 지연 프로토콜 의존
/* ipc/util.c - System V IPC의 cyclic ID 할당 예 */
int ipc_addid(struct ipc_ids *ids,
              struct kern_ipc_perm *new, int limit)
{
    int idx;

    /* cyclic 할당으로 ID 재사용 지연 */
    idx = idr_alloc_cyclic(&ids->ipcs_idr, new,
                            0, limit, GFP_NOWAIT);
    if (idx >= 0) {
        new->id = SEQ_MULTIPLIER * ids->seq + idx;
        new->seq = ids->seq;
        ids->in_use++;
    }

    return idx;
}

Stale ID 방지와 설계 고려사항

Cyclic 할당이 중요한 이유는 stale ID 참조 문제 때문입니다. ID를 해제한 직후 같은 번호가 새로운 객체에 재할당되면, 오래된 참조를 가진 코드가 잘못된 객체에 접근할 수 있습니다.

관점 일반 idr_alloc() idr_alloc_cyclic()
할당 순서 항상 가장 낮은 빈 ID 마지막 할당 다음부터 순환
재사용 지연 없음 (해제 즉시 재사용 가능) 전체 범위를 한 바퀴 돌아야 재사용
stale 참조 위험 높음 (빠른 재사용) 낮음 (재사용까지 시간 지연)
ID 공간 사용 패턴 낮은 번호 집중 고르게 분산
최악 성능 O(log n) O(n) (거의 가득 찬 경우)
PID 재사용과 보안: PID namespace에서 idr_alloc_cyclic()을 사용하는 이유 중 하나는 보안입니다. PID가 예측 가능하게 재사용되면 race condition 기반의 TOCTOU 공격에 취약해질 수 있습니다. 순환 할당은 이런 예측 가능성을 줄여줍니다.

DRM 핸들 관리

DRM(Direct Rendering Manager) 서브시스템은 GPU 메모리 객체(GEM)를 userspace에 노출할 때 IDR을 사용하여 핸들 번호를 관리합니다. 각 DRM 파일(struct drm_file)은 자체 IDR을 가지고, userspace의 ioctl 호출에서 핸들 번호로 GEM 객체를 찾습니다.

DRM GEM 객체와 IDR 핸들 매핑 구조 DRM은 per-file IDR로 GEM 핸들을 관리한다 Userspace (Mesa/Vulkan 드라이버) handle = 1 handle = 2 handle = 5 ioctl(fd, DRM_IOCTL_GEM_CLOSE, &args) struct drm_file (커널) object_idr (struct idr) ID 1 → obj_A ID 2 → obj_B ID 5 → obj_C ID 3, 4 → (빈 슬롯) drm_gem_object A refcount: 2 size: 4MB (framebuffer) drm_gem_object B refcount: 1 size: 256KB (texture) drm_gem_object C refcount: 1 size: 1MB (vertex buf) 핸들 생명주기 1. GEM_CREATE → 객체 생성 2. idr_alloc() → 핸들 배정 3. ioctl → idr_find() 조회 4. GEM_CLOSE → idr_remove() 5. refcount 0 → 객체 해제 drm_file 닫기 시 전체 정리

핸들 생명주기와 참조 카운팅

DRM 핸들의 생명주기를 이해하려면 GEM 객체의 참조 카운팅 모델을 알아야 합니다. 하나의 GEM 객체가 여러 핸들에서 참조될 수 있고(flink나 prime fd를 통해), 핸들 삭제 시 참조 카운트만 감소시킵니다.

이벤트 refcount 변화 IDR 동작 GEM 객체 상태
GEM_CREATE 1 (초기값) 없음 (아직 핸들 없음) 생성됨, GPU 메모리 할당
핸들 생성 +1 (→ 2) idr_alloc() 핸들로 접근 가능
ioctl 조회 +1 (임시) → -1 idr_find() 사용 중
flink import +1 idr_alloc() 다른 프로세스에서도 참조
GEM_CLOSE -1 idr_remove() 핸들 해제, 객체는 살아있을 수 있음
마지막 참조 해제 0 없음 GPU 메모리 해제, 객체 파괴
drm_file 닫기 시 정리: 프로세스가 DRM 파일 디스크립터를 닫으면, drm_file_free()idr_for_each()로 남은 모든 핸들을 순회하면서 각 GEM 객체의 참조를 드롭합니다. 이 과정에서 누군가 핸들을 명시적으로 닫지 않았더라도 자동으로 정리됩니다. 하지만 GPU 메모리 누수 디버깅 시에는 "어떤 프로세스가 핸들을 닫지 않고 종료했는가"를 추적해야 할 수 있습니다.

drm_gem_handle_create() 코드 분석

drivers/gpu/drm/drm_gem.c의 핵심 흐름을 축약하면 다음과 같습니다.

/* drivers/gpu/drm/drm_gem.c 기반 축약 */
int drm_gem_handle_create(struct drm_file *file_priv,
                          struct drm_gem_object *obj,
                          u32 *handlep)
{
    int ret;

    /* 1. 핸들 할당 (IDR 사용) */
    mutex_lock(&file_priv->table_lock);
    ret = idr_alloc(&file_priv->object_idr, obj,
                     1, 0, GFP_KERNEL);
    mutex_unlock(&file_priv->table_lock);

    if (ret < 0)
        return ret;

    *handlep = ret;

    /* 2. GEM 객체 참조 카운트 증가 */
    drm_gem_object_get(obj);

    /* 3. 드라이버별 open 콜백 */
    if (obj->funcs->open) {
        ret = obj->funcs->open(obj, file_priv);
        if (ret) {
            drm_gem_handle_delete(file_priv, *handlep);
            return ret;
        }
    }

    return 0;
}

/* 핸들로 GEM 객체 조회 */
struct drm_gem_object *drm_gem_object_lookup(
    struct drm_file *filp, u32 handle)
{
    struct drm_gem_object *obj;

    spin_lock(&filp->table_lock);
    obj = idr_find(&filp->object_idr, handle);
    if (obj)
        drm_gem_object_get(obj);  /* refcount 증가 */
    spin_unlock(&filp->table_lock);

    return obj;
}
per-file IDR의 장점: DRM은 각 프로세스(정확히는 각 drm_file)마다 독립된 IDR을 사용합니다. 이 설계 덕분에 프로세스 A의 핸들 1과 프로세스 B의 핸들 1은 서로 다른 GEM 객체를 가리킬 수 있고, 한 프로세스의 핸들 할당/해제가 다른 프로세스에 영향을 주지 않습니다. 파일 닫기 시에는 idr_for_each()로 남은 핸들을 모두 정리합니다.

PID Namespace IDR 활용

PID namespace는 커널에서 IDR을 가장 대표적으로 활용하는 서브시스템입니다. 각 PID namespace는 자체 IDR을 가지고, alloc_pid()idr_alloc_cyclic()으로 PID 번호를 할당합니다. namespace가 중첩되면 같은 프로세스가 각 namespace 레벨마다 서로 다른 PID 번호를 가질 수 있습니다.

PID Namespace 계층에서의 per-namespace IDR 구조 각 PID namespace는 자체 IDR로 독립된 PID 공간을 관리한다 init_pid_ns (루트 PID namespace) IDR (idr_alloc_cyclic) PID 1 → init (systemd) PID 1234 → bash PID 5678 → container_proc PID 변환 테이블 루트 PID 5678 ↔ 자식 ns에서는 PID 1 (같은 struct pid) 설정 pid_max: 32768 (기본) min: RESERVED_PIDS (300) cyclic cursor: idr_next 자식 PID namespace (container) IDR (독립 공간) PID 1 → container_proc (init) PID 2 → worker_thread struct pid (numbers 배열) numbers[0].nr = 1 (자식 ns에서의 PID) numbers[1].nr = 5678 (루트 ns에서의 PID) alloc_pid() 핵심 흐름 idr_preload(GFP_KERNEL) 메모리 사전 확보 spin_lock(&pidmap_lock) 전역 PID 잠금 idr_alloc_cyclic() NULL로 슬롯 예약 idr_replace(ns->idr, pid, nr) 초기화 완료 후 publish

alloc_pid() 코드 분석

kernel/pid.calloc_pid()는 namespace 계층을 따라 각 레벨에서 PID 번호를 할당합니다.

/* kernel/pid.c 기반 축약 */
struct pid *alloc_pid(struct pid_namespace *ns,
                       pid_t *set_tid, size_t set_tid_size)
{
    struct pid *pid;
    int i, nr;
    struct pid_namespace *tmp;

    pid = kmem_cache_alloc(ns->pid_cachep, GFP_KERNEL);

    /* 각 namespace 레벨에서 PID 번호 할당 */
    tmp = ns;
    pid->level = ns->level;

    for (i = ns->level; i >= 0; i--) {
        idr_preload(GFP_KERNEL);
        spin_lock_irq(&pidmap_lock);

        if (set_tid_size) {
            /* 사용자 지정 PID (clone3 + CLONE_SET_TID) */
            nr = idr_alloc(&tmp->idr, NULL,
                            set_tid[...], set_tid[...] + 1,
                            GFP_ATOMIC);
        } else {
            /* 일반 cyclic 할당 */
            int pid_min = 1;
            if (i == 0 && idr_get_cursor(&tmp->idr) <
                RESERVED_PIDS)
                pid_min = RESERVED_PIDS;  /* 300 */

            nr = idr_alloc_cyclic(&tmp->idr, NULL,
                                   pid_min,
                                   pid_max,
                                   GFP_ATOMIC);
        }

        spin_unlock_irq(&pidmap_lock);
        idr_preload_end();

        if (nr < 0)
            goto out_free;

        pid->numbers[i].nr = nr;
        pid->numbers[i].ns = tmp;
        tmp = tmp->parent;
    }

    /* 초기화 완료 후 각 namespace IDR에 publish */
    spin_lock_irq(&pidmap_lock);
    for (i = ns->level; i >= 0; i--)
        idr_replace(&pid->numbers[i].ns->idr,
                    pid, pid->numbers[i].nr);
    spin_unlock_irq(&pidmap_lock);

    return pid;
}
RESERVED_PIDS (300): 루트 namespace에서 커서가 300 미만이면 최소 PID를 300으로 올립니다. 이는 전통적으로 커널 스레드와 초기 데몬들이 사용하는 낮은 번호 영역을 보호하기 위한 것입니다. 자식 namespace에서는 이 제한이 적용되지 않으므로, 컨테이너 안의 PID 1은 정상적으로 할당됩니다.

PID 재활용과 namespace 변환

PID가 해제되면 idr_remove()로 IDR에서 제거되고, 해당 번호는 cyclic 커서가 다시 그 위치를 지날 때 재사용됩니다. namespace 간 PID 변환은 struct pidnumbers 배열로 처리됩니다.

동작 루트 namespace 관점 자식 namespace 관점
프로세스 생성 PID 5678 할당 PID 1 할당 (독립 IDR)
getpid() 5678 반환 1 반환
kill(pid, sig) 루트 IDR에서 5678 조회 자식 IDR에서 1 조회
프로세스 종료 PID 5678 해제 (idr_remove) PID 1 해제 (idr_remove)
가시성 모든 프로세스가 보임 같은 namespace만 보임

preload 메커니즘 심화

IDR에서 idr_alloc()를 호출하면 내부적으로 XArray 노드를 할당해야 할 수 있습니다. 문제는 이 할당이 spinlock 안쪽에서 일어날 때입니다. spinlock을 잡은 상태에서는 GFP_KERNEL(수면 가능 할당)을 사용할 수 없으므로, GFP_NOWAIT이나 GFP_ATOMIC을 써야 합니다. 이러면 메모리 압박 시 할당 실패 확률이 높아집니다.

idr_preload()는 이 문제를 해결합니다. 락을 잡기 전에 GFP_KERNEL으로 필요한 노드를 미리 확보해 두고, 실제 idr_alloc() 호출 시에는 미리 확보한 메모리를 사용합니다.

idr_preload 워크플로우: preload → lock → alloc → unlock preload는 락 바깥에서 메모리를 확보하여 락 안쪽 실패를 줄인다 시간 → idr_preload(GFP_KERNEL) 수면 가능한 컨텍스트 XArray 노드를 미리 할당 per-CPU 캐시에 저장 preempt_disable() spin_lock() 수면 불가 GFP_KERNEL 사용 불가 idr_alloc(GFP_NOWAIT) preload 캐시 우선 사용 캐시 비었으면 GFP_NOWAIT 대부분 성공 unlock + end spin_unlock() idr_preload_end() → preempt_enable() 미사용 노드는 캐시에 유지 Per-CPU preload 캐시 동작 1. idr_preload() 호출 → radix_tree_preload() 또는 xa_node 할당 → this_cpu_ptr(&radix_tree_preloads)에 저장 2. idr_alloc() 내부 → 새 노드 필요 시 per-CPU 캐시에서 먼저 꺼냄 → 캐시 비었으면 GFP 플래그로 직접 할당 3. idr_preload_end() → preempt_enable() (다른 CPU로 이동 가능) 할당 전략 비교 preload + GFP_NOWAIT 장점: 실패 확률 매우 낮음 단점: preload/end 쌍 관리 필요 GFP_ATOMIC (preload 없이) 장점: 코드 단순 단점: 메모리 압박 시 실패 가능 mutex + GFP_KERNEL (수면 가능 락) preload 불필요, 직접 수면 할당 가능

preload 사용 시 주의사항

함정 설명 대응
preload/end 짝 불일치 idr_preload()preempt_disable()을 포함하므로, 짝이 안 맞으면 preemption 카운터가 틀어짐 모든 경로(정상/오류)에서 idr_preload_end() 호출 보장
mutex와 preload 혼용 mutex를 사용하면 GFP_KERNEL을 직접 idr_alloc()에 전달할 수 있으므로 preload가 불필요 spinlock일 때만 preload 사용, mutex이면 직접 GFP_KERNEL
중첩 preload per-CPU 캐시는 하나이므로, preload를 중첩하면 이전 캐시를 덮어씀 같은 CPU에서 preload를 중첩하지 않도록 코드 구조 설계
XArray 직접 사용 시 xa_alloc()는 자체적으로 GFP_KERNEL을 받으므로 preload 패턴이 불필요 새 코드에서 XArray를 직접 사용하면 preload 복잡성을 회피 가능

RCU 생명주기 관리 심화

IDR에서 RCU를 올바르게 사용하는 것은 가장 실수가 많은 영역입니다. 핵심 문제는 idr_remove()와 실제 객체 해제 사이의 시간 간격입니다. IDR에서 엔트리를 제거한 순간에도, 이미 진행 중인 RCU reader는 그 포인터를 여전히 보고 있을 수 있습니다.

IDR 엔트리의 RCU 생명주기: alloc → publish → lookup → remove → grace period → free IDR 엔트리의 생명주기는 RCU grace period를 반드시 고려해야 한다 alloc publish lookup remove grace free Writer 경로 idr_alloc(NULL) idr_replace(obj) idr_remove(id) call_rcu(obj, free) Reader A (정상 경로) rcu_read_lock() idr_find() + refcount↑ Reader B (위험 구간) rcu_read_lock() — remove 직후 진입 idr_find() → NULL (제거됨) RCU Grace Period 기존 reader 모두 종료 대기 kfree_rcu(obj) 흔한 버그 패턴 1. idr_remove() 직후 kfree(obj) → 진행 중인 reader가 해제된 메모리 접근 (use-after-free) 2. idr_find() 후 refcount 미확인 → 객체가 이미 제거 단계여서 refcount_inc_not_zero() 실패

올바른 RCU 패턴

IDR에서 RCU를 안전하게 사용하려면, 조회(lookup)제거(removal) 양쪽 경로에서 생명주기를 정확하게 관리해야 합니다.

/* 올바른 패턴 1: 조회 측 — refcount 확보 */
struct my_obj *obj_lookup(int id)
{
    struct my_obj *obj;

    rcu_read_lock();
    obj = idr_find(&my_idr, id);
    if (obj && !refcount_inc_not_zero(&obj->refs))
        obj = NULL;  /* 이미 제거 중 */
    rcu_read_unlock();

    return obj;  /* NULL이면 사용 불가 */
}

/* 올바른 패턴 2: 제거 측 — RCU 해제 */
void obj_destroy(int id)
{
    struct my_obj *obj;

    spin_lock(&my_lock);
    obj = idr_remove(&my_idr, id);
    spin_unlock(&my_lock);

    if (obj) {
        /* 마지막 참조 드롭 — refcount 0이면 RCU 해제 */
        if (refcount_dec_and_test(&obj->refs))
            kfree_rcu(obj, rcu);
    }
}

/* 올바른 패턴 3: synchronize_rcu() 사용 */
void obj_destroy_sync(int id)
{
    struct my_obj *obj;

    spin_lock(&my_lock);
    obj = idr_remove(&my_idr, id);
    spin_unlock(&my_lock);

    if (obj) {
        synchronize_rcu();  /* 모든 reader 종료 대기 */
        kfree(obj);         /* 이제 안전하게 해제 */
    }
}
kfree_rcu() vs synchronize_rcu(): kfree_rcu()는 비동기적으로 grace period 후에 해제하므로 호출자가 블록되지 않습니다. synchronize_rcu()는 동기적으로 대기하므로 확실하지만 비용이 큽니다. hot path에서는 kfree_rcu()가 낫고, 모듈 언로드처럼 "반드시 정리 완료를 보장해야 하는" 경로에서는 synchronize_rcu()를 씁니다.

RCU vs 비-RCU 조회 경로 비교

관점 RCU 경로 비-RCU 경로 (락 보호)
보호 방법 rcu_read_lock() / rcu_read_unlock() mutex 또는 spinlock
수면 가능 불가 (preemptible RCU에서도 권장하지 않음) mutex이면 가능
확장성 매우 좋음 (reader 간 경합 없음) reader 수에 비례하여 경합 증가
생명주기 refcount 확보 필수 락이 잡혀 있는 동안 객체 보장
stale 데이터 가능 (제거 직후 잠시 보일 수 있음) 불가 (락이 최신 상태 보장)
전형적 사용 높은 읽기 빈도, 낮은 쓰기 빈도 읽기/쓰기 비율이 비슷하거나 정확성 최우선

ftrace/perf 디버깅 실습

IDR 관련 문제를 디버깅할 때 가장 효과적인 도구는 커널의 ftrace와 bpftrace입니다. ID 누수, 할당 실패, 비정상 패턴을 추적하는 방법을 실습합니다.

ftrace로 IDR 함수 추적

ftrace의 function_graph 트레이서를 사용하면 idr_alloc, idr_find, idr_remove 호출을 실시간으로 관찰할 수 있습니다.

# 1. IDR 관련 함수 필터 설정
cd /sys/kernel/tracing

# idr_ 접두사 함수만 추적
echo 'idr_alloc*' > set_ftrace_filter
echo 'idr_find' >> set_ftrace_filter
echo 'idr_remove' >> set_ftrace_filter

# function_graph 트레이서 활성화
echo function_graph > current_tracer
echo 1 > tracing_on

# 일정 시간 후 추적 결과 확인
cat trace

# 출력 예시:
# CPU  DURATION   FUNCTION CALLS
#  0)   1.234 us | idr_alloc();
#  0)   0.456 us | idr_find();
#  2)   0.789 us | idr_remove();

bpftrace로 ID 할당 빈도 분석

# idr_alloc 호출 빈도를 프로세스별로 집계
bpftrace -e '
kprobe:idr_alloc {
    @allocs[comm] = count();
}

kprobe:idr_remove {
    @removes[comm] = count();
}

interval:s:10 {
    print(@allocs);
    print(@removes);
    clear(@allocs);
    clear(@removes);
}'

# ID 할당 범위 분포 히스토그램
bpftrace -e '
kretprobe:idr_alloc /retval >= 0/ {
    @id_distribution = hist(retval);
}

interval:s:30 {
    print(@id_distribution);
    clear(@id_distribution);
}'

bpftrace로 ID 누수 탐지

ID 누수는 idr_alloc()idr_remove()의 짝이 맞지 않을 때 발생합니다. bpftrace로 이를 추적할 수 있습니다.

# alloc/remove 짝을 추적하여 누수 탐지
bpftrace -e '
kretprobe:idr_alloc /retval >= 0/ {
    @active[retval] = nsecs;
    @alloc_stack[retval] = kstack;
}

kprobe:idr_remove {
    $id = arg1;
    delete(@active[$id]);
    delete(@alloc_stack[$id]);
}

interval:s:60 {
    printf("\n--- 60초 이상 해제되지 않은 ID ---\n");
    print(@active);
}

END {
    printf("\n--- 미해제 ID의 할당 스택 ---\n");
    print(@alloc_stack);
}'

perf probe로 할당 지연 측정

# idr_alloc 진입/종료 probe 등록
perf probe --add 'idr_alloc_entry=idr_alloc'
perf probe --add 'idr_alloc_exit=idr_alloc%return ret=$retval'

# 10초간 기록
perf record -e 'probe:idr_alloc_entry' \
            -e 'probe:idr_alloc_exit' \
            -a -- sleep 10

# 결과 분석
perf script | head -50

# 정리
perf probe --del 'idr_alloc_entry'
perf probe --del 'idr_alloc_exit'
실전 디버깅 팁: ID 누수가 의심될 때 가장 먼저 확인할 것은 오류 경로에서의 정리 코드입니다. idr_alloc() 성공 후 이어지는 초기화 단계에서 실패하면서 idr_remove()를 빼먹는 것이 가장 흔한 누수 패턴입니다. bpftrace의 kstack으로 할당 지점을 기록하면 어느 경로에서 누수가 발생하는지 빠르게 찾을 수 있습니다.

실전 디버깅 시나리오: ID 고갈 추적

시스템에서 "Cannot allocate ID" 오류가 발생했을 때, 어떤 경로에서 ID를 할당하고 어떤 경로에서 해제가 누락되었는지 추적하는 실전 시나리오입니다.

# 1단계: 현재 IDR 할당 상태 확인
# /proc이나 /sys를 통해 서브시스템별 ID 사용량 확인
cat /proc/sys/kernel/pid_max
cat /proc/sys/kernel/threads-max
ls /proc/ | grep -E '^[0-9]+$' | wc -l  # 현재 PID 수

# 2단계: 특정 서브시스템의 alloc/remove 비율 추적
bpftrace -e '
kretprobe:idr_alloc /retval >= 0/ {
    @allocs = count();
}
kretprobe:idr_alloc /retval < 0/ {
    @failures = count();
    @fail_errno = hist(- retval);
}
kprobe:idr_remove {
    @removes = count();
}
interval:s:5 {
    printf("allocs=%d removes=%d failures=%d\n",
           @allocs, @removes, @failures);
}
'

# 3단계: 할당 실패의 호출 스택 확인
bpftrace -e '
kretprobe:idr_alloc /retval == -28/ {  # -ENOSPC
    printf("ID exhaustion at:\n");
    print(kstack);
}
'
디버깅 도구 적합한 상황 출력 예
ftrace function_graph 호출 빈도와 지연 시간 개요 함수별 실행 시간, 호출 횟수
bpftrace kprobe/kretprobe 반환값 분석, 할당/해제 짝 추적 히스토그램, 카운터, 스택 트레이스
perf probe 특정 함수의 지연 시간 정밀 측정 타임스탬프 기반 이벤트 기록
perf stat 캐시 미스, 분기 예측 실패 등 하드웨어 카운터 CPU 사이클, L1/L2 미스 비율
crash/drgn 라이브 커널 또는 kdump에서 IDR 내부 상태 직접 조사 xa_node 트리 구조, 슬롯 내용

성능 분석과 최적화

IDR/IDA의 성능 특성은 내부 XArray radix tree의 구조에서 비롯됩니다. 각 연산의 시간 복잡도와 메모리 비용을 이해하면 적절한 도구를 선택하는 데 도움이 됩니다.

IDR/IDA/XArray/bitmap 성능 비교 IDR 연산은 O(log n) — 트리 깊이에 비례한다 연산별 시간 복잡도 비용 엔트리 수 (n) O(1) O(log n) O(n) ── O(1): 배열/비트맵 (고정 크기) ── O(log n): IDR alloc/find/remove - - O(n): cyclic 최악/순회 XA_CHUNK_SIZE=64 → 깊이 ≤ 6 도구별 성능 비교 IDR alloc/find/remove: O(log n) | 메모리: 포인터당 ~64B 장점: 희소 공간에 유연 | 단점: 배열보다 느림 IDA alloc/free: O(log n) | 메모리: ID당 ~1비트 + 오버헤드 장점: 매우 가벼움 | 단점: 포인터 저장 불가 XArray load/store: O(log n) | 메모리: IDR과 유사 장점: mark/iterator 확장 | 단점: IDR보다 API 복잡 단순 bitmap set/test/clear: O(1) | 메모리: max/8 바이트 (고정) 장점: 가장 빠름 | 단점: 고정 크기, 희소에 비효율 max < 1024이고 촘촘하면 bitmap, 나머지는 IDR/IDA/XArray

캐시 동작과 메모리 오버헤드

도구 엔트리당 메모리 캐시 친화성 적합한 워크로드
IDR ~64B (xa_node 슬롯 + 포인터) 중간 (트리 탐색으로 캐시 미스 가능) ID→포인터 매핑, 읽기 비중 높은 경우
IDA ~1비트 + ida_bitmap 오버헤드 좋음 (비트맵 연산은 캐시 친화적) 번호만 필요, 수천~수만 개 ID
XArray IDR과 유사 중간 mark, iterator가 필요한 새 코드
고정 배열 sizeof(pointer) 고정 최상 (연속 메모리) max가 작고 고정, 촘촘한 ID
고정 비트맵 1비트 고정 최상 번호만, max가 작고 고정
벤치마크 설정 예: IDR 성능을 측정하려면 (1) 초기 엔트리 수, (2) alloc/find/remove 비율, (3) ID 범위 (희소 vs 촘촘), (4) CPU 수와 락 경합 조건을 명시해야 합니다. 조건 없는 "A가 B보다 빠르다"는 문장은 유지보수 문서에서 거의 도움이 되지 않습니다.

최적화 가이드라인

  1. ID 범위를 최소화: 불필요하게 넓은 범위(0~INT_MAX)를 사용하면 트리 깊이가 깊어집니다. 실제 필요한 범위만 지정하세요.
  2. 배치 할당 고려: 여러 ID를 연속 할당해야 하면 XArray의 xa_alloc()을 반복하는 것보다 별도의 범위 관리가 나을 수 있습니다.
  3. 읽기 경로 최적화: idr_find()가 hot path이면 RCU 기반 lockless lookup을 적극 활용하세요.
  4. preload 오버헤드: preload는 per-CPU 캐시를 사용하므로 매번 할당/해제하는 것보다 효율적이지만, preemption disabled 구간이 길어지면 latency에 영향을 줍니다.
  5. IDA 선택: 포인터 저장이 필요 없다면 IDA가 IDR보다 메모리와 CPU 모두에서 효율적입니다.
  6. cyclic 할당의 비용 인식: idr_alloc_cyclic()은 stale ID 방지에 유리하지만, ID 공간이 거의 가득 찬 상태에서는 탐색 비용이 크게 증가합니다. 사용률이 80%를 넘으면 범위 확장을 고려하세요.
  7. idr_destroy() 전 payload 정리: idr_destroy()는 내부 노드만 해제합니다. 저장된 포인터가 가리키는 객체는 먼저 idr_for_each()로 정리해야 메모리 누수가 없습니다.

벤치마크 설정 예

IDR 성능을 커널 모듈에서 측정하는 기본 틀입니다. 실제 벤치마크 시에는 CPU 수, 락 경합, ID 분포를 반드시 명시해야 합니다.

/* 커널 모듈 벤치마크 예시 (축약) */
DEFINE_IDR(bench_idr);
static DEFINE_MUTEX(bench_lock);

static void bench_alloc_find_remove(int count)
{
    ktime_t start, alloc_end, find_end, remove_end;
    int *ids;
    int i;

    ids = kmalloc_array(count, sizeof(int), GFP_KERNEL);

    /* 1. 할당 벤치마크 */
    start = ktime_get();
    for (i = 0; i < count; i++) {
        mutex_lock(&bench_lock);
        ids[i] = idr_alloc(&bench_idr, &ids[i],
                             1, 0, GFP_KERNEL);
        mutex_unlock(&bench_lock);
    }
    alloc_end = ktime_get();

    /* 2. 조회 벤치마크 */
    for (i = 0; i < count; i++)
        idr_find(&bench_idr, ids[i]);
    find_end = ktime_get();

    /* 3. 제거 벤치마크 */
    for (i = 0; i < count; i++) {
        mutex_lock(&bench_lock);
        idr_remove(&bench_idr, ids[i]);
        mutex_unlock(&bench_lock);
    }
    remove_end = ktime_get();

    pr_info("count=%d alloc=%lldns find=%lldns remove=%lldns\n",
            count,
            ktime_to_ns(ktime_sub(alloc_end, start)) / count,
            ktime_to_ns(ktime_sub(find_end, alloc_end)) / count,
            ktime_to_ns(ktime_sub(remove_end, find_end)) / count);

    kfree(ids);
}

네트워크 디바이스 IDR 활용

네트워크 서브시스템에서 각 네트워크 인터페이스(struct net_device)는 고유한 ifindex(interface index)를 가집니다. 이 번호는 net/core/dev.c에서 IDR을 사용하여 할당됩니다. 또한 net namespace마다 독립된 IDR을 유지하여, 컨테이너 간 인터페이스 번호가 겹치지 않도록 합니다.

네트워크 인터페이스 ifindex 할당과 net namespace별 IDR net namespace마다 독립 IDR로 ifindex를 관리한다 init_net (호스트 namespace) net->dev_index_head (IDR) ifindex 1 → lo | ifindex 2 → eth0 | ifindex 3 → wlan0 lo ifindex: 1 flags: LOOPBACK mtu: 65536 eth0 ifindex: 2 flags: UP mtu: 1500 wlan0 ifindex: 3 flags: UP mtu: 1500 container_net (컨테이너 namespace) net->dev_index_head (독립 IDR) ifindex 1 → lo | ifindex 2 → eth0 (veth pair) lo ifindex: 1 독립 namespace eth0 ifindex: 2 veth peer dev_new_index() — ifindex 할당 흐름 net->ifindex 증가 전역 순차 카운터 __dev_get_by_index() 중복 확인 충돌 시 재시도 ifindex++, 다시 확인 dev->ifindex = ifindex 해시 테이블에 등록 ifindex는 인터페이스 삭제 후에도 즉시 재사용되지 않음 (순차 증가 방식) ip link show에서 보이는 번호 = ifindex

dev_new_index()와 인터페이스 등록 코드

/* net/core/dev.c 기반 축약 */
static int dev_new_index(struct net *net)
{
    int ifindex = net->ifindex;

    for (;;) {
        if (++ifindex <= 0)
            ifindex = 1;  /* 오버플로우 시 1부터 */

        if (!__dev_get_by_index(net, ifindex))
            return net->ifindex = ifindex;
    }
}

/* 인터페이스 등록 시 ifindex 배정 */
int register_netdevice(struct net_device *dev)
{
    struct net *net = dev_net(dev);

    /* ifindex 할당 */
    dev->ifindex = dev_new_index(net);
    if (dev->ifindex < 0)
        goto err;

    /* 해시 테이블에 등록 */
    list_netdevice(dev);

    return 0;
}
ifindex와 IDR의 관계: 현재 커널에서 ifindex 자체는 IDR이 아닌 순차 카운터 + 해시 테이블 방식을 사용합니다. 그러나 커널 내부의 여러 네트워크 서브시스템(예: TC 필터 핸들, netfilter 테이블 인덱스)에서는 IDR을 직접 사용합니다. net namespace별 독립 자원 관리라는 설계 패턴은 PID namespace의 per-namespace IDR과 동일한 원리입니다.

TC 필터와 네트워크 서브시스템의 IDR 활용

ifindex 자체는 순차 카운터를 사용하지만, 네트워크 서브시스템의 여러 부분에서 IDR을 직접 활용합니다.

서브시스템 용도 특징
TC 필터 (cls_api.c) 트래픽 제어 필터 핸들 관리 IDR로 필터 핸들 할당, per-chain 독립
Generic Netlink family ID 할당 genl_family 등록 시 ID 배정
nftables 테이블/체인/규칙 인덱스 트랜잭션 기반 할당/해제
TIPC (Transparent IPC) 노드/포트 식별자 클러스터 환경에서 고유 ID 필요
Wireless (cfg80211) wiphy 인스턴스 번호 IDA로 인스턴스 번호 관리
/* net/sched/cls_api.c 기반 축약 — TC 필터 핸들 할당 */
static u32 gen_new_kid(struct tcf_proto *tp,
                        u32 *idx_gen)
{
    u32 i = 0x80000000;  /* 자동 생성 핸들 범위 */

    /* IDR에서 사용 가능한 핸들 검색 */
    if (idr_alloc_u32(&tp->handle_idr, NULL,
                       &i, i + 0x7FFFFFFF,
                       GFP_KERNEL) == 0) {
        *idx_gen = i;
    }
    return i;
}

net namespace와 인터페이스 격리

네트워크 namespace는 PID namespace와 마찬가지로, 각 namespace가 독립된 네트워크 스택을 가집니다. 따라서 호스트의 ifindex 1(lo)과 컨테이너의 ifindex 1(lo)은 서로 다른 인터페이스입니다.

속성 호스트 namespace 컨테이너 namespace
ifindex 시작 1 (lo) 1 (lo, 독립)
인터페이스 목록 lo, eth0, wlan0, docker0, veth... lo, eth0 (veth pair)
인덱스 공간 독립 (net->ifindex 카운터) 독립 (별도 카운터)
소켓 바인딩 호스트 인터페이스만 컨테이너 인터페이스만
ip link show 호스트 디바이스 전체 컨테이너 디바이스만
veth pair와 namespace 이동: ip link set dev veth1 netns container_ns로 인터페이스를 다른 namespace로 이동하면, 해당 인터페이스는 원래 namespace에서 제거되고 대상 namespace에서 새로운 ifindex를 받습니다. 이 과정에서 원래 namespace의 ifindex는 해제되지만 순차 카운터 방식이므로 즉시 재사용되지 않습니다.

네트워크 코드에서 배우는 IDR 설계 패턴

네트워크 서브시스템의 IDR 사용 사례에서 공통적으로 나타나는 설계 패턴을 정리합니다. 이 패턴들은 다른 서브시스템에서도 동일하게 적용할 수 있습니다.

  1. per-namespace IDR: 격리가 필요한 자원마다 독립 IDR을 유지합니다. PID namespace와 net namespace 모두 이 패턴을 씁니다.
  2. 순차 증가 + 중복 확인: ifindex처럼 완전한 랜덤이 아니라 순차 증가 카운터에 중복 확인을 결합합니다. 단순하지만 효과적입니다.
  3. 정리 경로의 일괄 처리: namespace 파괴 시 idr_for_each()로 남은 엔트리를 모두 정리합니다. 개별 해제 누락에 대한 안전망 역할을 합니다.
  4. 핫 패스 최적화: 조회가 빈번한 경로(패킷 수신 등)에서는 해시 테이블을 병행하여 O(1) 조회를 보장합니다.
패턴 적합한 경우 커널 예시
per-context IDR 컨텍스트(파일, namespace, 세션)별 ID 독립 drm_file의 object_idr, pid_namespace의 idr
NULL 예약 → replace 부분 초기화 객체 노출 방지 kernel/pid.c의 alloc_pid()
cyclic 할당 stale 참조 방지, 보안 PID, IPC, 네트워크 세션
preload + spinlock 원자적 컨텍스트에서 할당 실패 최소화 PID, DRM, 일부 네트워크 코드
RCU lookup + refcount 높은 읽기 빈도, 낮은 쓰기 빈도 PID lookup, 세션 테이블