2021. 8. 24. 17:03

네이버 클라우드 서비스들을 다 삭제했는데..

 

계속 비용이 나가길래.... 

 

마이페이지  -> 이용관리 -> (탭) 서비스 이용 현황

으로 들어가니, 아래처럼 3개 서비스 사용중이란다.

NAT Gateway

Object Storage

Certificate Manager

 

이렇게 이용중이란다.

그래서 콘솔로 가서 보면, 아래처럼서비스 중인게 없다. 분명히 다 삭제했었는데..

 

도대체 근데, 왜 돈이 나가고  있다 해서 고객센터문의해보니,

 

Object Storage의 Subscription 서비스가 이용중이였던거다.

 

 

각 서비스들의 Subscription 서비스로 들어가서 애들을 다 중지해줘야 한다.

 

진짜.... 그러면, 내 목록에  Subscription이라고 해주던지...

 

이 서비스들 비용만벌써 몇주동안 나가고 있었던거다..ㅠㅠ

 

Object Storage의 Subscription 과

Certificate Manager의  Subscription 들어가서해지해준다.

 

그리고, NAT Gateway 는 좀 복잡한데...

VPC 플랫폼에서 생성한것이라, 

클래식을 VPC로 바꿔주고

 [Console > Plaform에서 VPC 선택 > VPC > NAT Gateway]에서 해당 NAT Gateway 삭제 해야한다.

 

  - 바로 가기 : https://console.ncloud.com/vpc-network/natgw

참...서비스 중지하기도 힘들다....ㅠㅠ

 

 

Posted by Tyson
2021. 8. 10. 11:44

아....네이버 클라우드 그만 쓰려고 해지하려는데....

 

FAQ에는 

Console > My Product > NAVER WORKS 선택해서 해지하라는데..

 

My Product 메뉴가 없다.

FAQ 업데이트 좀 하지....ㅠㅠ

 

먼가 설명이 불편하다.

 

어쨌든 콘솔 말고, 계정관리가서 회원탈퇴로 가면, 서비스를 반납하라는데... "다음"버튼을 누르면,

 

 

아래처럼, 지금 사용중인 서비스 목록이 뜨고, 다 반납하란다.....

아...aws도 이랬나???

그냥 끊겼던거 같은데...ㅠㅠ

 

 

 

콘솔로 가서, 목록에 있는 서비스들 확인해서... 다 중지 또는 삭제해야된다.

 

굳이 탈퇴 안하고, 돈 나가는거만 없애고 싶은건데...

 

그리고, 나중에 다시 살릴지도 모르는데...

 

서버도 삭제밖에 없다.....ㅠㅠ

 

중지는 3개월인가만 가능하고, 다시 사용으로 바뀐덴다....ㅠㅠ

 

네이버 클라우드를 쓰면서, 진짜 기능들이 많고, 좋긴한데.... 너무 많아서, 세팅해서 사용하기 불편한 느낌이다.

 

처음에 보안규칙 찾으려는데... 여기는 ACG라는 명칭을 사용하고 있더라....

 

aws랑 명칭도 틀린것들이 있어서... 어떤서비스가 어떤건지 몰라서...이 메뉴 저메뉴 다 놀러서 찾아야하고....ㅠㅠ

 

그리고.. 확실히, GCP APP Engine 쓰다가.... 일일히 세팅하고 쓰려니.... 불편하다...ㅠㅠ

 

네이버 클라우드 기능은 많은데... 개발자 말고, 디자이너가 콘솔부분이랑, 메뉴 정리 좀 해주면 좋을거 같다.

 

 

진짜...반납하러 가기로 가서, 일일히 10개가 넘는 서비스들 다 반납 및 삭제를 해야한다.

그리고, 다 했는데도....저기 목록에서 없어지지가 않는거다...

고객센터에 문의하니....

 

고객이 직접 반납을 수행하여야 한다고 반납 방법을 적어서 보내줬다...

그걸 모르는게 아닌데....ㅠㅠ

삭제를 했는데도 명세에 있는건데....

 

확인해 보니까... 삭제가 안되는 상품들이 월단위 과금이라...

삭제를 해도, 서비스 목록에는 계속 있는거 같다.

이번달 벌써 비용을 지불했으니..

 

다음달에 확인해 보고, 없어지지 않으면.....진짜.... ㅠㅠㅠㅠ

결국 다음달 청구서 와서, 비용내기 전까지는 탈퇴도 진행을 못한다....ㅠㅠ

 

다음부터는 국내 클라우드는 안써야겠다...ㅠㅠ

 

 

Posted by Tyson
2021. 8. 4. 17:50

윈도우에서는 putty에서 터널링 세팅해놓고, 접속하면, 알아서 되는데, 

맥에서는 터미널 프로그램들이 잘 안되더라..

 

그리고, DBeaver같은 경우는 접속정보에 터널링 세팅이 있어서, 그걸로 하면 되는데...

 

SQL Developer를 쓸일이 있는데, 

이거는 터널링 접속을 지원을 안해준다.

그래서 아에 터미널에서 ssh 접속으로 터미널 세팅을 해줘야 한다.

 

터미널을 열고,

   > ssh 계정@접속할서버 -p 포트 -L 원포트(로컬에서사용할포트):대상서버정보:포트

예> ssh user@111.111.111.111 -p 22 -L 3306:db.server.com:3306

 

그리고, 접속 프로그램에서 접속 주소는

호스트주소 : localhost 

포트 : 3306

아이디, 패스워드 적고 접속하면 된다.

 

 

 


참고 블로그: https://ddasi-live.tistory.com/55 

 

 

추가적으로

Core Tunnel 이란 프로그램을 사용해도 된다.

https://apps.apple.com/us/app/core-tunnel/id1354318707?ls=1&mt=12 

 

‎Core Tunnel

‎The missing ssh tunnel manager, compatible with OpenSSH, automatic and intuitive. Don't waste your time; be productive. ## Features OpenSSH Compatible • Everything in OpenSSH, local / remote / dynamic port forwarding types, agent forwarding, certifica

apps.apple.com

 

프로그램 설치하고, 

아래처럼 추가해줘도 된다.

이게 진짜 편하다. (무료버젼도 좋다)

Bind address 부분은 비워놓아도 된다.

Posted by Tyson
2021. 8. 3. 16:33

네이버 클라우드를 쓸일이 있는데...

터미널 접속후 자꾸 접속이 끊어져서....ㅠㅠ 백업 작업 걸어놓고.... 멈춰서 백업을 자꾸 실패했다.

아래같은 메시지가 자꾸 뜨면서 접속이 종료된다.

 open failed: connect failed: Connection timed out

 timed out waiting for input: auto-logout

기본적으로 애네들이 보니까 입력이 없을때, 접속 끊어지게 해놓은거 같다...ㅠㅠ

보안 좋은데.....ㅠㅠ불편해서 내가 못쓴다...ㅠㅠ

 

 

먼저 로그인한 후에, 설정파일들을 수정해야 되니, root 권한으로 바꾼다.

> su -

 

먼저, TMOUT 설정이 있는지 확인해 봐야한다.

 

개인설정인 

.bashrc

.profile

등을 확인해보고, TMOUT 세팅이 있는지 확인해 보고,

없으면, 

 

글로벌 설정인

/etc/sshd_config.conf

/etc/bashrc

/etc/profile

등을 확인해 본다.

거기서 

TMOUT=6000 

이렇게 써 있으면, 

#TMOUT=6000 

으로 주석처리해주고 저장한다.

 

그리고, 반영하기

> source 파일명

> source .profile

 

그래도 안되면,

 

 ssh_config 파일을 확인해본다.

파일을 열어서 / 누르고, Client를 검색해서

아래 두개를 확인해 본다.

> vi /etc/ssh/sshd_config

#ClientAliveInterval 0
#ClientAliveCountMax 3

→ ClientAliveInterval: 클라이언트 살아있는지 확인하는 간격

→ ClientAliveCountMax: 클라이언트 응답 없어도 접속 유지하는 횟수

→ 예를 들어 ClientAliveInterval=15, ClientAliveCountMax=3 이면 45초 후 접속 끊김

 

 

 두개를  #로 주석처리해주고  , 저장하고 나온다.

#ClientAliveInterval 0
#ClientAliveCountMax 3

:wq

 

그리고, 서비스를 재시작 해준다.

> service sshd restart
또는
> /etc/init.d/ssh restart

#확인하기
> cat /etc/ssh/sshd_config | grep Client
Posted by Tyson
2021. 6. 17. 19:45

 

맥에서 ssh 접속할때, 아래처럼 에러가 날때가 있다..

 

@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@
@    WARNING: REMOTE HOST IDENTIFICATION HAS CHANGED!     @
@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@
IT IS POSSIBLE THAT SOMEONE IS DOING SOMETHING NASTY!
Someone could be eavesdropping on you right now (man-in-the-middle attack)!
It is also possible that a host key has just been changed.
The fingerprint for the RSA key sent by the remote host is
SHA256:H.
Please contact your system administrator.
Add correct host key in /Users/ty/.ssh/known_hosts to get rid of this message.
Offending RSA key in /Users/ty/.ssh/known_hosts:3
RSA host key for 192.168.0.123 has changed and you have requested strict checking.
Host key verification failed.

 

서버를 포멧하고 재 설치를했더니, 맥에서 저장된 키값이 틀려서 그런거다..

그래서 키값을 삭제해 줘야한다.

 

> ssh-keygen -R [아이피주소]

이걸 실행하면 리셋이 된다.

ssh-keygen -R 192.168.0.123

 

 

 

Posted by Tyson
2020. 12. 16. 13:21

GAE(Google App Engine)에 node 올려서 사용중인데...자꾸 서버가 재시작하고,

 

재시작하면서 연결이 끊기더라....ㅠㅠ

 

처음에는 아래 같은 문구가 나오고, 재시작이 자꾸 되길래...

 

먼가 오류가 있어서 그런줄 알았는데.... 

 

인스턴스를 늘려야하는 문제였다.

 

내 최대 인스턴스를 1로 해놓았는데...

 

최대 인스턴스를 1로 하는것은 오류가 밠생하기 쉽기 때문에 않좋다더라.

 

gae.yaml 파일에서

automatic_scaling 의

max_instances를 1 말고, 2-3정도로 올려주니까...

재부팅 현상이 없어졌다.

 

 

참고,

stackoverflow.com/questions/61323488/google-app-engine-restarting-automatically-randomly

 

Posted by Tyson
2019. 5. 21. 12:08

리눅스 서버에서 df 했는데, 멈춰버리는 현상이 생겼다.

 

다른 명령어는 다 괜찮은데, 왜 df -h 만 그러는지....

 

그래서 찾아보니, 저번에 NFS 마운트 해놓은 서버 접속이 끊겨져 있었다.

 

> mount

먼저 mount 를 쳐서, 마운트 되어있는 폴더를 확인하고,

 

/home/data란 폴더로 마운트 해 놓았으면, 

 

> umount /home/data

치면, busy라고 나오면서 안된다.

 

> umount -f /home/data 

로 치면, 강제로 언마운트하고, 

 

df 때 걸렸던 hang 이 풀리면서 정보가 뜬다.

Posted by Tyson
2018. 11. 19. 20:00

시놀로지 2개를 연결해서, 스토리지로, 똑같이 파일 백업하려는데....


처음에 cp로 했는데, 한글 인코딩 문제로, 한글명 들어간 파일들이 깨져서, -u 옵션으로 없는거만 복사 시켰는데..


인식 못하고 계속 깨져서.....


rsync 로 백업하는법을 바꿨다.





rsync [옵션] [원본위치] [목적지위치]




이렇게 하면 된다.


옵션은 -avzh 를 다쓰더라.



a : 복사 파일의 속성값들을 유지한다. (권한, 심볼릭링크 등)

v : 복사 항목을 출력한다.

z : 압축을 하여 전송함으로서 대역폭 및 시간을 절약한다.

h : 진행 결과를 보기좋게 출력한다.



하지만, 난 로그를 따로 남기지 않아서, vh옵션은 빼고  - az 만 썼다.


> rsync -avzh /volume1/shared/ /mounted/shared


리모트 복사도 있는데, 그냥 마운트 시켜서 해버렸다.


처음에는 권한이랑 속성값까지 그대로 복사해서 좀 걸리는데, 그 다음부터는 빠른 속도를 자랑한다.




위 명령어를 쉘 스크립트로 만들어서, cron으로 등록해서 자동으로 돌게 해놓았다.






-----------------------------------------------------------------------------------------------------------------------------


출처: http://noota.tistory.com/entry/rsync-파일-복사-및-삭제 [누더기]

Posted by Tyson
2018. 8. 28. 18:08

crontab으로 스케쥴을 걸었는데, 


실행결과 로그를 보고 싶을때 log 파일을 만드는 법이다.


밑에 내용은 다른 블로그에서 퍼온건데, 처음에


> 랑 >> 차이를 잘 몰랐는데, 


>> 같은경우는 밑에 계속 로그가 쌓인다.


* * * * * /home/script/test.sh > /home/script/test.sh.log 2>&1

위처럼 작성하면 매분마다 test.sh.log 파일이 갱신 되어 작업 내용이 어떻게 처리 되었는지 알 수 있습니다. 만약 2>&1 을 제거하면 쉘스크립트에서 표준 출력 내용만 나옵니다. 2>&1은 이곳에서 확인합시다.

그런데, 이게 너무 자주 실행 되고 또한 지속적으로 로깅이 되야 해서 로그를 계속 남겨둬야 한다면 다음처럼 입력합니다.

* * * * * /home/script/test.sh >> /home/script/test.sh.log 2>&1

그러면 계속 로그가 누적이 되는 것을 확인 할 수 있을겁니다. 대신 로그가 과도하게 쌓이면 리눅스 퍼포먼스에 영향을 주므로 가끔씩 비워주거나 파일을 새로 만들어주는 센스가 필요합니다.


위처럼 해도 되고, 나 같은 경우는 


로그 파일에, `date +%Y%m%d' 를 써줘서 날짜별로 파일을 만들기를 했다. 




참고 블로그 

https://jdm.kr/blog/2


Posted by Tyson
2018. 4. 24. 15:36

쉘 스크립트에서,


한달된 로그파일들을 지워서 공간을 확보해 놓고 싶어서, 하나 만들었다.


su - test -c "rm -f /backup/db_backup_`date -d '1 month ago' +%Y%m`*.bak"


이렇게 하면, test 계정으로 들어가서, 

(현재 4월임)


3월달에 만들어진 파일들(rm -f /backup/db_backup_201803*.bak)을 삭제한다.



date 에서 가져오고 싶은 날짜 찾는거는 밑에 퍼온거를 참조해서 


아래와 같이 하면 된다.


날짜가 제대로 나오는지 확인해 보고 싶으면, echo로 아래와 같이 해보면 된다.


> echo `date -d '2 days ago' +%Y%m%d`



퍼온거

===========================================================================


과거


  1. date -d 'yesterday' # 어제
  2. date -d '1 day ago' # 1일전 = 어제
  3. date -d '2 day ago' # 2일전
  4. date -d '35 day ago' # 20일전
  5. date -d '1 week ago' # 1주일전
  6. date -d '2 month ago' # 1달전
  7. date -d '3 year ago' # 3년전
  8. date -d '10 second ago' # 10초전
  9. date -d '20 minute ago' # 20분전
  10. date -d '30 hour ago' # 30시간전
  11. date -d '3 year 7 month ago' # 3년 7개월전




미래 

* 과거에서 ago 를 빼면 됨

  1. date -d 'tomorrow' # 내일
  2. date -d '1 day' # 1일후 = 내일
  3. date -d '2 day' # 2일후
  4. date -d '35 day' # 20일후
  5. date -d '1 week' # 1주일후
  6. date -d '2 month' # 1달후
  7. date -d '3 year' # 3년후
  8. date -d '10 second' # 10초후
  9. date -d '20 minute' # 20분후
  10. date -d '30 hour' # 30시간후
  11. date -d '3 year 7 month' # 3년 7개월후



요일 기준


  1. date -d 'this friday' # 이번주 금요일
  2. date -d 'last monday' # 지난 월요일
  3. date -d 'next tuesday' # 다음 화요일



특정 시간을 기준으로 날짜 더하고 빼기


  1. date -d '2010-01-03 07:32:10 + 2 day 5 hours 17 minute'
  2. # 2010년 1월 3일 7시 32분 10초를 기준으로 2일 5시간 17분후



옵션 1


-d 는 --date 옵션으로 사용해도 됩니다. --date 로 쓸때에는 --date= 형식으로 사용하시면 됩니다.

  1. date --date='2 month'



옵션 2


시간단위를 나타내는 day, week, month, year, second, minute, hour 등은 뒤에 s(복수)를 붙여도 되고 안붙여도 됩니다.

  1. date -d '1 day ago'
  2. date -d '1 days ago'



옵션 3


시간을 원하는 형식으로 뽑기위해서는 아래같이 하시면 됩니다.

현재 시간으로부터 2일전의 년-월-일 시:분:초 형식으로 표시하려면

  1. date '+%Y-%m-%d %H:%M:%S' -d '2 day ago'



쉘스크립트에서 해당 시간을 변수에 담기


보통 위와 같은 date 함수는 주로 쉘스크립트에서 사용하게 됩니다. 리눅스 명령으로 가져온 결과값을 변수에 담으려면

  1. yesterday=$(date -d '1 day ago')


또는

  1. yesterday=`date -d '1 day ago'`


변수를 사용할때는

  1. echo $yesterday



자료출저 : http://steadypost.net/post/knowhow/id/8/


============================================================================


날짜별로 log파일 만들때 유용하다.

Posted by Tyson