대규모 데이터 처리 방법에 대해서 문의 드립니다.

대규모 데이터 처리 방법에 대해서 문의 드립니다.

QA

대규모 데이터 처리 방법에 대해서 문의 드립니다.

답변 1

본문

안녕하세요.

 

rs232 통신으로 serial 데이터를 받아서..

그걸 parsing 한 후에 mysql db로 넣는것 연습중입니다.

 

이제 php로 프로그램은 다 짜놨고.. cron으로 하루정도 데이터를 넣어서 테스트 중입니다.

 

phpmysql에 접속은 가능하구요..

근데 홈페이지는 안들어 가지네요;;

 

대략 하루에 많으면 4만건.. 적으면 만건정도 됩니다.

 

다른 대체 솔루션이 있는건지..

아니면 서버를 분산 배치해서 db 내용을 땡겨와야 하는건지..

 

 고민입니다^^;;

 

 erp 급으로 데이터가 많이 들어오다 보니.. 어찌저찌 해서 다른 대체 솔루션 찾다가 글 남깁니다.

 

 빅데이터.. 대규모 데이터 처리 하시는 노하우가 궁금하네요.. 

이 질문에 댓글 쓰기 :

답변 1

로그를 php에서 매번 파싱해서 sql로 넣으시나요?
tcp구조에서 한계에 부딛힐텐데요.
추정컨데 이전세션이 종료되지않은상태가 발생되서 병목현상이 일어나는것처럼 보이네요.

사실 건에대한것 보다는 얼마나 빈번하게 발생하느냐가 관건입니다.(전 하루에 백만~천만단위 핸들링하는데 횟수로 따지면 그리 많지않기에 그냥저냥 쓰고있네요.)

단순 로그라면 굳이 파싱하지말고 nosql이나 하둡으로 가세요.

아래보시고 공부하시면 안목이 조금 넓어질듯 싶습니다.
https://www.slideshare.net/mobile/cybaek/201403

ps.mysql 5.7부터 지원하는 json저장을 사용하셔도 큰덕을 보실수 있습니다.
답변을 작성하시기 전에 로그인 해주세요.
QA 내용 검색
질문등록
전체 27
© SIRSOFT
현재 페이지 제일 처음으로