<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title><![CDATA[RSS Feed]]></title><description><![CDATA[RSS Feed]]></description><link>http://direct.ecency.com</link><image><url>http://direct.ecency.com/logo512.png</url><title>RSS Feed</title><link>http://direct.ecency.com</link></image><generator>RSS for Node</generator><lastBuildDate>Thu, 16 Apr 2026 00:13:38 GMT</lastBuildDate><atom:link href="http://direct.ecency.com/@uneedcomms/rss" rel="self" type="application/rss+xml"/><item><title><![CDATA[[DW ver.2] Hive의 execution engine으로 Spark 사용하기]]></title><description><![CDATA[빅데이터 시대가 오면서, 사람들은 대용량의 데이터를 저장 및 처리할 수 있는 새로운 시스템의 필요를 느꼈습니다. 웹 로그 같은 비정형 데이터가 수없이 쌓이고 있는데, 이를 기존 RDBMS에 저장하기엔 상용 RDBMS (ex: Oracle)도  RDBMS를 설치할 스토리지도 매우 비쌌기 때문입니다. 이것을 해결하고자 나온 것이 바로 Hadoop입니다.]]></description><link>http://direct.ecency.com/hadoop/@uneedcomms/dw-ver-2-hive-execution-engine-spark</link><guid isPermaLink="true">http://direct.ecency.com/hadoop/@uneedcomms/dw-ver-2-hive-execution-engine-spark</guid><category><![CDATA[hadoop]]></category><dc:creator><![CDATA[uneedcomms]]></dc:creator><pubDate>Mon, 09 Apr 2018 07:35:18 GMT</pubDate></item><item><title><![CDATA[Ubuntu systemd service 만들기]]></title><description><![CDATA[다음과 같은 명령어를 하나의 service로 작성하려 한다. java `cat conf-quickstart/druid/historical/jvm.config | xargs` -cp "conf-quickstart/druid/_common:conf-quickstart/druid/historical:lib/*" io.druid.cli.Main server historical]]></description><link>http://direct.ecency.com/ubuntu/@uneedcomms/ubuntu-systemd-service</link><guid isPermaLink="true">http://direct.ecency.com/ubuntu/@uneedcomms/ubuntu-systemd-service</guid><category><![CDATA[ubuntu]]></category><dc:creator><![CDATA[uneedcomms]]></dc:creator><pubDate>Thu, 29 Mar 2018 05:37:48 GMT</pubDate></item><item><title><![CDATA[[DW ver.2] Druid 사용 방법]]></title><description><![CDATA[Druid high-performance, column-oriented, distributed data store Quick Start 1. Prerequisites     * Java 8 or higher     * Linux, Mac OS X, or other Unix-like OS (Windows is]]></description><link>http://direct.ecency.com/druid/@uneedcomms/dw-ver-2-druid</link><guid isPermaLink="true">http://direct.ecency.com/druid/@uneedcomms/dw-ver-2-druid</guid><category><![CDATA[druid]]></category><dc:creator><![CDATA[uneedcomms]]></dc:creator><pubDate>Thu, 29 Mar 2018 05:30:00 GMT</pubDate></item><item><title><![CDATA[[DW ver.2] 물리 서버에 맞는 Spark/YARN conf 설정값 조정]]></title><description><![CDATA[본 포스팅은 Cloudera Manager를 통한 HDFS, Spark, YARN, Hive 설치를 완료한 후 진행된 상황을 설명합니다. 주어진 물리 서버 환경에서 Spark, YARN, Hive의 configuration 내 주요 설정값들에 대한 설명을 하고, 이를 최적화하여 Spark job 효율을 최대화시키고자 합니다. 앞으로의 설명은 Cloudera]]></description><link>http://direct.ecency.com/cloudera/@uneedcomms/dw-ver-2-spark</link><guid isPermaLink="true">http://direct.ecency.com/cloudera/@uneedcomms/dw-ver-2-spark</guid><category><![CDATA[cloudera]]></category><dc:creator><![CDATA[uneedcomms]]></dc:creator><pubDate>Tue, 27 Mar 2018 05:52:30 GMT</pubDate></item></channel></rss>