일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 |
- 피보나치 예제
- tomcat log
- katalon xpath
- 재귀함수 예제
- 테스트 자동화
- 주식 양도세 신고방법
- oracle group by
- bfs 미로탐색 java
- 피보나치함수 예제
- 국세청 해외주식 양도세 신고방식
- katalon 자동화
- Katalon Recorder 사용법
- 최대공약수 예제
- 재귀 예제
- recursion example
- 홈택스 해외주식 양도세
- java.sql.SQLSyntaxErrorException
- 한국투자증권 해외주식 양도세
- 한국투자증권 양도세 신고
- 해외주식 양도세 신고
- 톰캣 실시간 로그
- 피보나치함수
- katalon 사용법
- CSTS 폭포수 모델
- javascript 자동완성
- js 자동완성
- katalon
- katalon 비교
- 해외증권 양도세 한국투자증권
- git 연동
- Today
- Total
목록Server&DevOps (65)
엄지월드
1. Elastic GPG 키 임포트sudo apt-get update && sudo apt-get install -y apt-transport-https # HTTPS를 통해 저장소에 접근하기 위함wget -qO - https://artifacts.elastic.co/GPG-KEY-elasticsearch | sudo gpg --dearmor -o /usr/share/keyrings/elastic-keyring.gpg 2. Elastic 저장소 추가 echo "deb [signed-by=/usr/share/keyrings/elastic-keyring.gpg] https://artifacts.elastic.co/packages/8.x/apt stable main" | sudo tee /etc/apt/so..
주키퍼 systemd 서비스 파일 생성sudo vi /etc/systemd/system/zookeeper.service[Unit]Description=Apache ZooKeeperAfter=network.target[Service]Type=simpleUser=ec2-user # 네 서버의 카프카 실행 사용자 이름으로 변경 (보통 ec2-user)Group=ec2-user # 네 서버의 카프카 실행 사용자 그룹으로 변경ExecStart=/home/ec2-user/kafka_2.13-3.2.3/bin/zookeeper-server-start.sh /home/ec2-user/kafka_2.13-3.2.3/config/zookeeper.propertiesExecStop=/home/ec2-user/kafka_2...
주키퍼를 먼저 실행 시켜주어야 한다. nohup bin/zookeeper-server-start.sh config/zookeeper.properties > zookeeper.out 2>&1 & 카프카 브로커 실행 nohup bin/kafka-server-start.sh config/server.properties > server.out 2>&1 & jps 입력하여 실행 확인
홈서버의 경우 고정 아이피가 아닌 경우가 대부분이라 아이피가 매번 바뀔 수 있기 때문에 DNS와 IP를 매칭시켜주어야 한다.duckdns.org에 들어가서 domain을 생성한 후 token을 생성하고 아래와 같이 sh 파일을 만들어 스케줄러 돌리면 된다. 파일 생성vi duck.sh 파일 내용#!/bin/bash## Simple shell script to run DuckDNS update# Requires curl to be installed## Configuration variables# Set your domain or comma separated list of domains and subdomains# (for example: mytestdomain.duckdns.org,other.duckdns..
개인 홈 서버를 구축하였는데 노트북 덮개를 덮었을 때에 절전모드로 전환하는 현상이 생겼다.그래서 절전모드를 풀어주기로 했다. 설정 진입$ sudo vi /etc/systemd/logind.conf #HandleLidSwitch=suspend 이라고 되어 있는 부분들을 HandleLidSwitch=ignore으로 변경해준다. HandleLidSwitch=ignore HandleLidSwitchExternalPower=ignore HandleLidSwitchDocked=ignore HandleLidSwitch 에서 설정할 수 있는 값설정값설정결과poweroff시스템 잠그고 꺼짐hibernate최대 절전모드suspend절전모드ignore정상적으로 서비스됨lock덮개가 닫힐 때마다 시스템 자동 잠금아래 명령..
ubuntu 노트북을 서버로 구축할 때 절전모드가 되어 불편한 상황이 생긴다.그럴 때 해결하기 위한 방법이다. 절전 모드 확인 $ systemctl status sleep.target suspend.target hibernate.target hybrid-sleep.target절전 모드 처리$ sudo systemctl mask sleep.target suspend.target hibernate.target hybrid-sleep.target 이렇게 하면 절전모드가 된다.
1. 웹서버 (Nginx, Apache) 튜닝 예시주로 클라이언트의 요청을 받아 정적 파일을 처리하거나, WAS로 요청을 전달(Reverse Proxy)하는 역할을 수행합니다. 워커 프로세스/커넥션 수 설정: worker_processes, worker_connections (Nginx), MPM 설정 (MaxRequestWorkers, ThreadsPerChild 등) (Apache) 목적: 서버의 CPU 코어 수와 예상되는 최대 동시 접속 수를 고려하여 최적의 워커 프로세스 및 각 프로세스가 처리할 수 있는 최대 커넥션 수를 설정하여 자원을 효율적으로 사용하고 과부하를 방지합니다. 캐싱 설정: proxy_cache, fastcgi_cache (Nginx), mod_cache, mod_expires (..

총 3개의 Master와 3개의 Slave가 구성된다.Redis의 conf 파일 내용이 같은데 각각의 폴더 마다 직접 들어가서 conf 파일을 만들기 번거로워서 sh 파일로 만들었다.1. vi create_redis_cluster.sh 입력해서 아래 내용 입력#!/bin/bash# 스크립트가 실행되는 디렉터리를 가져옵니다.# 이 스크립트가 /home/ec2-user/redis 에 있다고 가정합니다.SCRIPT_DIR="$(dirname "$0")"# --- 변수 설정 ---# 클러스터를 구성할 포트 목록PORTS="6380 6381 6382 6383 6384 6385"# 설정 파일 템플릿 경로 (스크립트 디렉터리 내)TEMPLATE_FILE="$SCRIPT_DIR/redis.conf.template"#경..
카프카 서버(브로커)에는 특정 코드를 "배포"하거나 "실행"하는 개념이 일반적인 애플리케이션 서버와는 다릅니다. 카프카 서버는 설치된 카프카 소프트웨어 자체를 실행하는 것입니다. 카프카 서버에는 다음과 같은 핵심 요소가 있습니다. 카프카 브로커 소프트웨어: 아파치 카프카 프로젝트에서 제공하는 핵심 실행 파일 및 라이브러리들이 설치되어 있습니다. 설정 파일: 브로커의 동작 방식, 포트, 데이터 저장 경로, 주키퍼 연결 정보 등을 정의하는 설정 파일(server.properties)이 있습니다. 데이터 저장 공간: 토픽의 파티션에 해당하는 실제 메시지 데이터가 저장되는 디스크 공간입니다. 카프카 서버에는 여러분이 작성한 Java 코드(Producer, Consumer 로직)가 직접 올라가서 실행되는 것이 아..
Q. kafka 새로 생성 시 cluster ID를 설정하고 안하고 차이가 뭐야?카프카를 새로 생성하실 때 cluster.id를 설정하는 것과 설정하지 않는 것의 주요 차이는 클러스터 식별자를 수동으로 지정하느냐 아니면 카프카가 자동으로 생성하도록 하느냐에 있습니다. cluster.id는 해당 카프카 클러스터를 고유하게 식별하는 ID입니다. 이 ID는 클러스터 내의 브로커들이 서로 같은 클러스터에 속해 있는지 확인하는 용도로 사용됩니다. 차이점은 다음과 같습니다. cluster.id를 설정하지 않는 경우:카프카가 처음 시작될 때 (특히 KRaft 모드에서는 kafka-storage.sh format 실행 시) 고유한 cluster.id를 자동으로 생성합니다. 이후 동일한 클러스터에 참여하려는 다른 브로커..