상세 컨텐츠

본문 제목

3D NAND의 한계가 오고있는가? : 4D NAND의 상용화가 말해주는것

내 전공은 물리/과학기사

by 척척석사 민준 2023. 2. 16. 00:38

본문

728x90

3D NAND에 한계가 오고있는가?

마이크론은 232단 NAND를 쌓았고 SK하이닉스는 238단 512Gb TLC 4D NAND를 발표했다.

하이닉스에서 2018년 4D NAND라는 말을 처음 사용했다. 실제로 4D의 구조를 가진것은 아니지만 그저 마케팅을 위한 기믹은 아닌게 차세대 3D 구조물에 대한 트랜드네임이 되어버렸기 때문이다.

DRAM의 경우 개발과정이 10-15년이 걸리는데 3D NAND의 경우는 굉장히 빠르다. 2013년 삼성전자가 처음 24단 3D NAND를 발표한 이후 2022년 200단이 넘는 NAND가 발표되고 있다.

2D NAND를 보면 판형의 floating gate(FG)가 존재하고 그 옆에 기반회로가 존재한다. 2007년 2D NAND의 스케일링 한계가 다다르면서 도시바가 3D NAND의 개념을 제안하고 삼성전자가 V-NAND라는 이름으로 2013년에 처음 시장에 출시한다.

3D NAND에선 FG가 charge trap flash(CTF)로 바뀌게 된다. 기술적으로도 경제적으로도 이득이 많은 형태였다. 기존 Planer 구조에선 용량을 늘리려면 미세공정이 들어가게 되면서 공정설비를 새로 만들어야 했으나 3D NAND는 동일한 설비로 위로 적층만 성공하면 용량이 증가했기 때문이다.
FG가 conducting layer에 전하를 저장할 때 CTF는 유전체층에 전하를 고정해놓는다.

3D NAND가 고층건물처럼 높이 올라가는동안 기반 회로(peripheral circuity)는 여전히 옆에서 공간을 차지하고 있었다.

하이닉스는 이제 기반회로를 CTF 밑에 넣는 periphery under cell (PUC)구조를 양산했다. CTF/PUC NAND보단 4D NAND가 더 와닿기 때문에 4D NAND로 네이밍을 한것으로 보인다. 사실 궁극적으로는 3D NAND의 변형이라고 볼 수 있다.

위로 200층이 넘게 쌓이고 있는데 그 이유는 층을 높게 쌓을 수록 용량이 수Gb씩 생겨나기 때문이다. 한 웨이퍼안에서 뽑아낼 수 있는 용량이 많아진다는건 반도체의 기본 논리인 높은 기술력으로 생산단가를 획기적으로 줄인다는 논지와 일맥상통한다.
그리고 위로 쌓으면 데이터를 읽고 쓰는 데이터 전송속도도 빨라지고 도선이 짧아지면서 열도 덜 발생하고 전력소모도 줄어든다.

2022년 IEEE IEDM에서 삼성의 김기남은 키노트에서 2030년까지 1000층의 NAND를 생산할 것이라 예측했다.

높이 쌓는 건 여전히 기술적인 난관이 있다. 쌓을수록 생겨나는 수축으로 인한 뒤틀림이나 메모리 홀의 크기를 더 줄여야한다는 점 등등.

가장 민감한 도전과제는 에칭이다. 매우 높은 비율로 깊은 구멍을 내야하기 때문이다. 128단이 되면서 직경 6-, 7-, 8- 마이크로 미터였던 구멍이 이제는 120 나노미터가 되었다. 에칭과 deposition 속도는 NAND가 올라가는 속도에 따라가지 못하고 있다.

120 나노미터의 구멍을 유전체로 메우는 것 또한 쉬운 일은 아니다.
또 큰 과제는 stress다 공정을 계속할 수록 초기에 쌓아놨던 층은 계속 열적 변화를 겪게 될 것이고 이는 지역적으로도 전체적으로도 뒤틀림을 유발할 수 있다.

결국 2D NAND에서 3D NAND로 넘어올때 극복했던 high aspect ratio etch, deposition 공정을 다시 개선해야 할 것이다.

개인 의견

메모리 반도체는 이미 Sk하이닉스, 삼성전자가 계속해서 기술을 혁신하고 있고 새로운 기술 트렌드를 제시하고 있다. 마이크론이 232단을 만들었다고는 하나.. 치타는 웃고 있다는 밈처럼 국내 업체들은 높은 기술격차로 시장을 선점하고 기다리고 있다고 생각한다. 2030년 1000단 NAND가 지금은 불가능해보여도.. 메모리가 짜다고 소문난 맥북 SSD 용량이 벌써 8TB를 넘어가고 있는 걸 보면 2030년즈음 되면 정말 테라바이트가 기본단위가 되는 시대가 올 것이다. Chat-GPT 이후 시장에선 AI 기술만으로도 돈을 벌 수 있게 되었다. AI 상용화에 가장 큰 걸림돌이 연산속도도 있지만 서버를 통해 서비스를 받아야 한다는 점이었다. 만약 스마트폰이 수Tb의 용량을 기본으로 탑재하게 되면.. 서비스 업체들은 서버를 증설하지 않고 모델만 배포할 것이다. AI를 통해 사용자의 옷스타일을 추천하는 서비스를 한다고 치자. 서버증설해서 사용자 데이터모으고 옷스타일을 분류해서 학습하고.. 서버돌리다가 사업비가 다 증발해버릴 수도 있다. 하지만 이미 학습시킨 모델만 배포해 사용자의 사진 데이터를 스마트폰 AP로 학습한다면? 굳이 비싼 GPU 서버를 24시간 구동시킬 필요없이 모델업데이트 할때만 한번씩 학습시키면서 비용을 수십배 아낄 수 있다. 사용자 데이터를 직접받지 않고 사용자의 스마트폰으로 학습한 파라미터계수만 받아오면 되므로 개인정보관련 리스크도 사라진다.

우리나라가 메모리시장을 90%이상 차지하고 있어서 메모리를 너무 과소평가하지만 어느시점에선 AP의 성능보다 메모리의 성능이 더 중요해지는 시점이 올 것이라고 생각한다.

728x90

관련글 더보기