Claude Code 1M context 모델을 써봤습니다.

기존의 답답함이 싹 사라져 버리네요...
기존에는 언제 Compacting이 뜰지 살짝 계산하면서 사용해야 되었었는데
1M모델을 쓰니 어마어마하게 많은 용량의 PDF도 한번에 읽어서 모두 처리해 버리네요
기존에는 읽다가 3~4번 정도 압축하다가 잘못하면 그냥 오류나서 뻗어버리는 경우도 있었는데
정말 좋아졌는데 대신 extra usage로 추가 비용이 발생하네요 ㅎㅎ
얼마전까지는 Claude Code에 정식으로 출시되지 않았었지만
오늘은 한번에 읽어야 하는 PDF가 너무 많은 탓에 버벅거리는것 같아서
Switch Model을 클릭해 보니 모델별로 1M Context가 추가되어 있네요
돈을 지불하더라도 가끔 스위칭해서 사용할만 할것 같습니다.
향후 AI 더 발전해서 1M이 기본 모델이 되면 진짜 작업이 너무 편해질것 같네요.. ㄷㄷ
|
댓글을 작성하시려면 로그인이 필요합니다.
댓글 7개
항상 다른 AI보다 20% 정도 비싸게 책정되고
용량도 조금 짜지만
확실한 성능을 보장한다는 것입니다.
이것이 Claude를 계속 사용하게 하는 원동력이지 않나 싶습니다.
이번에 카카오에서 할인하던 ChatGPT Pro 를 한개 구입해서 Codex Spark 를 사용해 봤는데 속도만 빠를뿐 완성도면에서는 클로드 코드를 따라오지 못하는 것 같더군요
물론 제 사용법에 문제가 있을 수 있음은 인정합니다 ㅎ
저도 api 로 쓸까 말까 고민입니다.(회사에 요청하면 됩니다만,,,음..)
cli로 사용하고 있는데 말로는 과금된다고 나오고 있는데
아직은 실제 과금은 안되고 있는 상황이네요
채팅을 아주 길게 한텀 사용했는데 아직 추가 비용은 0원입니다.
접때 50달러 공짜로 줄때 받은 크래딧이 그대로이네요.
한참이 지나서 세션이 새로 갱신되었는데도 사용되지 않았네요
아직은 무료니 조금 더 써봐야 겠습니다 ㅎㅎ