- PySpark에서 MinIO와 Iceberg를 연동해 DataLake 구축하기홀쑥목표spark 및 iceberg 사용 경험을 위해 pyspark로 HadoopCatalog를 사용하는 MinIO에 iceberg 테이블을 만들고, 샘플 데이터를 삽입 후 쿼리해서 결과를 얻어보려고 한다. 사전 설치1. 접근 가능한 Spark Cluster(pyspark)2. UV(파이썬 패키지 및 프로젝트 매니저)3. Spark에 설치된 pyspark와 같은 버전의 python4. MinIO(또는 S3)테스트 준비프로젝트 생성uv로 프로젝트를 생성한다uv init spark_test 샘플데이터 준비테이블에 넣기 위한 데이터를 준비한다faker 라이브러리로 데이터 생성하는 스크립트 생성하기 위해 라이브러리 설치한다. 샘플이기에 pyproject에 추가하지 않는다uv pip install Faker tqdm..
- 2025-11-07 01:50:46
[Airflow] Airflow 3로 업그레이드홀쑥Airflow 3Airflow3이 2025년 4월 22일에 출시되었다.(https://airflow.apache.org/blog/airflow-three-point-oh-is-here/) Apache Airflow® 3 is Generally Available!We're proud to announce that Apache Airflow 3.0.0 has been released.airflow.apache.org Airflow2가 나온 2020년 12월 17일 이후로 거의 약 4년 8개월만에 메이저 버전이 올라갔다. 현재 3.0.3(2025-07-14)까지 존재한다.기존엔 모든 컴포넌트가 airflow metadata database에 직접 접근모든 컴포넌트가 같은 네트워크에 있다고 가정하고 설계(tas..- 2025-07-20 02:12:35
[Python] Polars Lazy API로 효율적인 데이터 처리홀쑥Polars Lazy APIPolars의 Lazy API란 연산을 즉시 실행하지 않고, 연산 계획을 세운 후 실제 결과가 필요할 때 collect()를 통해 실행하는 방식이다.이런 지연실행 방식은 불필요한 연산을 줄이고, 최적화된 쿼리 실행을 가능하게 하여 데이터 처리 속도를 크게 향상시킨다. 왜 Lazy API를 사용할까?성능 최적화Polars는 쿼리 계획을 생성한 뒤 최적화를 통해 불필요한 연산을 제거하거나 순서를 조정하여 성능을 높인다.(predicate pushdown)메모리 효율성Polars는 필요한 컬럼이나 행만 메모리에 올려, 메모리 사용량을 최소화한다.(projection pushdown)대규모 데이터 처리전체 데이터를 한 번에 로드하지 않고, 스트리밍 방식으로 데이터를 처리하여 메모리를 ..- 2025-04-21 23:23:45
[Python] Polars의 데이터 타입과 구조홀쑥Polars에서 Data Type과 Structure데이터 타입Polars는 다양한 데이터 타입을 지원하며 모든 결측값을 NaN이 아닌 null로 표현한다.숫자 데이터 타입Signed Integers(부호가 있는 정수)Int8, -128~127Int16, -32768 ~ 32767Int32, -2147483648 ~ 2147483647Int64, -9223372036854775808 ~ 9223372036854775807Unsigned Integers(부호가 없는 정수)UInt8, 0 ~ 255UInt16, 0 ~ 65535UInt32, 0 ~ 4264967295UInt64, 0 ~ 18446744073709551615Floating point numbers(부동소수점)Float32, 단정밀도Float6..- 2025-04-10 23:17:01
스킨 업데이트 안내
현재 이용하고 계신 스킨의 버전보다 더 높은 최신 버전이 감지 되었습니다. 최신버전 스킨 파일을 다운로드 받을 수 있는 페이지로 이동하시겠습니까?
("아니오" 를 선택할 시 30일 동안 최신 버전이 감지되어도 모달 창이 표시되지 않습니다.)