13
Paper Reading Framework 13-question insight prompt
Research Ops Prompt

논문을 깊고 빠르게 읽는 13가지 질문

AI+Robotics 논문을 배경, 방법, 검증, 한계, 공개 자원까지 구조적으로 읽고 비교하기 위한 프롬프트입니다.

OutputSelf-contained HTML
Summary Items13 fixed rows
LayoutSingle column
Source PolicyPrimary sources
How To Use

사용 방법

  • 1아래 “복사용 전체 프롬프트”를 그대로 복사해서 새 대화에 붙여넣습니다.
  • 2[논문 리스트] 영역에 제목과 URL만 바꿔 넣습니다.
  • 3결과물은 paper_summaries_apple_style.html 파일로 요청하도록 되어 있습니다.
  • 413개 항목은 2-column grid가 아니라 원컬럼으로 세로 누적되도록 명시되어 있습니다.
Source Discipline

소스 확인 원칙

A
1차 출처 우선
논문 원문 abstract, PDF, project page, GitHub, dataset page, benchmark page를 가능한 한 확인합니다.
B
본문 최대 확인
PDF 접근이 가능하면 초록만 보지 말고 본문, figure, table, appendix까지 최대한 읽고 요약 근거를 잡습니다.
C
근거 없는 추측 금지
확인할 수 없는 내용은 “확인되지 않음”, “논문 내 명시 없음”, “공개 링크 확인 안 됨”처럼 표시합니다.
D
한계 구분
논문이 직접 말한 한계와 논문 근거로 도출한 한계를 구분해서 씁니다.
E
자원 공개 검증
코드, 데이터셋, 툴킷, checkpoint는 확인된 링크 기준으로 작성합니다.
Fixed Format

논문별 13개 항목 요약 형식

01
배경
연구가 놓인 큰 분야, 임무 맥락과 중요성.
02
문제
논문이 풀려는 구체적 과제나 필요한 기능.
03
기존 한계
기존 방법, 도구, 가정이 부족한 지점.
04
목표
논문이 명시적으로 달성하려는 목표.
05
방법
제안 알고리즘, 시스템, 하드웨어, 모델, 절차.
06
핵심 아이디어
방법을 차별화하는 핵심 기술 메커니즘.
07
검증
데이터셋, 시뮬레이션, 필드 또는 하드웨어 실험, 검증 시나리오.
08
결과
성능, 정량 결과, 검증 성공 여부.
09
비교
기준 방법, 벤치마크, 기존 연구와의 비교.
10
의의
결과가 가능하게 하는 활용과 임무상 의미.
11
한계
남아 있는 제약, 실패 사례, 취약점.
12
향후 과제
다음 연구 단계나 후속 방향.
13
자원 공개
공개 코드, 데이터셋, 툴킷, 벤치마크.
HTML Spec

출력 HTML 요구사항

UI
Apple-style 인터페이스
밝은 배경, 큰 타이포그래피, 얇은 border, 부드러운 shadow, 절제된 카드 레이아웃을 사용합니다.
NAV
Anchor Navigation
상단에는 논문별 anchor navigation 또는 chip-style 목차를 넣습니다.
13
원컬럼 고정
13개 항목은 반드시 flex column으로 세로 누적하고, 2-column grid를 쓰지 않습니다.
SRC
Source Chip
paper, PDF, project, GitHub, dataset, checkpoint 링크는 확인된 경우만 카드 하단 chip으로 정리합니다.
Copy Block

복사용 전체 프롬프트

아래 블록 전체를 복사해서 새 대화에 붙여넣고, [논문 리스트] 영역만 교체하면 됩니다.

13-question framework prompt
아래 논문 리스트를 바탕으로, 각 논문을 정확히 읽고 “논문별 13개 항목 요약”을 만든 뒤, 최종 결과를 Apple-style 느낌의 HTML 파일로 생성해줘.

[논문 리스트]
여기에 논문 제목과 URL을 붙여넣기.
예:
- Paper Title 1: https://...
- Paper Title 2: https://...
- Paper Title 3: https://...

[역할과 관점]
너는 SLAM, robot navigation, 3D perception, embodied AI, VLM/VLA, robot learning, human-robot interaction 분야를 잘 아는 연구자처럼 읽고 요약해야 해.
단순 소개가 아니라, “왜 이 논문이 나왔는지, 무엇이 새롭고, 어떻게 검증했으며, 무엇이 아직 부족한지”가 드러나게 정리해.
논문 간 공통점과 차이점이 자연스럽게 보이도록 각 논문의 핵심 아이디어를 구체적으로 써.

[소스 확인 원칙]
- 반드시 각 논문의 원문 abstract, PDF, project page, GitHub, dataset page, benchmark page를 가능한 한 확인해.
- PDF나 공식 원문에 접근할 수 있으면 abstract만 보지 말고, 본문 전체를 최대한 읽고 figure, table, appendix까지 확인한 뒤 요약해.
- arXiv, AAAI, IEEE, RA-L, conference proceeding, project page, GitHub, HuggingFace 등 공식 또는 1차 출처를 우선 사용해.
- 최신 논문이거나 arXiv/AAAI/IEEE/RA-L 링크가 있으면 웹 검색을 사용해서 논문 원문과 공개 자원을 확인해.
- 본문, appendix, project page, GitHub가 서로 다른 내용을 말하면 원문 논문과 공식 project page를 우선하되, 차이를 명시해.
- 논문 내용에 근거하지 않은 추측은 하지 마.
- 확인이 불가능한 내용은 “확인되지 않음”, “논문 내 명시 없음”, “공개 링크 확인 안 됨”처럼 정직하게 표시해.
- 한계와 향후 과제는 논문이 명시한 것과 합리적으로 도출한 것을 구분해서 써.
- “자원 공개”는 반드시 확인된 링크 기준으로 작성하고, 확인하지 못했으면 그렇게 밝혀.

[논문별 요약 형식]
각 논문은 정확히 아래 13개 항목으로 요약해.
각 항목은 1문장으로 작성해.
항목 순서는 절대 바꾸지 마.
한국어로 작성하되, 기술 용어는 필요하면 영어를 병기해.
문체는 자연스럽고 간결하게 써.
각 문장은 논문의 핵심을 최대한 정보밀도 높게 담아.

1. 배경
- 연구가 놓인 큰 분야·임무 맥락과 중요성.

2. 문제
- 논문이 풀려는 구체적 과제나 필요한 기능.

3. 기존 한계
- 기존 방법·도구·가정이 부족한 지점.

4. 목표
- 논문이 명시적으로 달성하려는 목표.

5. 방법
- 제안 알고리즘·시스템·하드웨어·모델·절차.

6. 핵심 아이디어
- 방법을 차별화하는 핵심 기술 메커니즘.

7. 검증
- 데이터셋·시뮬레이션·필드/하드웨어 실험·검증 시나리오.

8. 결과
- 성능·정량 결과·검증 성공 여부.

9. 비교
- 기준 방법·벤치마크·기존 연구와의 비교.

10. 의의
- 결과가 가능하게 하는 활용·임무상 의미.

11. 한계
- 남아 있는 제약·실패 사례·취약점.

12. 향후 과제
- 다음 연구 단계나 후속 방향.

13. 자원 공개
- 공개 코드·데이터셋·툴킷·벤치마크.

[내부 확인 체크리스트]
각 논문에 대해 최종 요약 전에 내부적으로 다음을 확인해.
- 이 논문이 기존 연구 흐름에서 어떤 빈칸을 메우는가?
- 제안 방법의 입력, 출력, 학습 신호, inference 절차는 무엇인가?
- 실험이 실제 로봇인지, 시뮬레이션인지, 오프라인 데이터셋 평가인지 구분했는가?
- 정량 결과가 있다면 어떤 metric에서 얼마나 좋아졌는가?
- baseline이 강한 편인지 약한 편인지 판단할 수 있는가?
- failure case, limitation, deployment constraint가 무엇인가?
- 공개 자원이 실제로 사용 가능한 상태인지 확인했는가?

[내용 품질 요구사항]
- 피상적인 설명을 피하고, 연구 맥락·기술적 차별점·검증 방식·정량 결과·비교·한계까지 비판적으로 요약해.
- 핵심 키워드는 논문 맥락에 맞게 반영하되, SLAM, robot navigation, 3D perception, VLM/VLA, embodied AI, robot learning, human-robot interaction 등 AI+robotics 관점에서 중요한 축을 중심으로 해석해.
- 방법 설명에는 가능하면 입력, 출력, 모델 구조, 학습 신호, inference 절차를 포함해.
- 검증 설명에는 dataset, simulator, robot platform, environment, scenario를 가능한 한 구체적으로 포함해.
- 결과 설명에는 metric 이름과 수치를 가능한 한 포함해.
- 비교 설명에는 baseline 이름을 가능한 한 포함해.
- 의의는 과장하지 말고, 이 결과가 navigation/HRI/robot learning 관점에서 무엇을 가능하게 하는지 써.
- 한계는 논문이 말한 한계와 네가 논문 근거로 도출한 한계를 구분 가능하게 써.
- 향후 과제는 단순히 “더 연구해야 한다”가 아니라, 데이터·모델·실험·배포 관점에서 구체적으로 써.

[HTML 출력 요구사항]
최종 결과는 하나의 완전한 HTML 파일로 만들어줘.
HTML은 외부 CSS 파일 없이 self-contained 형태로 작성해.
디자인은 Apple-style에 가깝게 밝고 절제된 톤으로 구성해.
전체 배경은 #f5f5f7 계열의 밝은 gray를 사용하고, 카드는 white 또는 반투명 white 느낌으로 만들어.
상단에는 제목, subtitle, 논문 개수, 생성 목적을 보여줘.
상단에 논문별 anchor navigation 또는 chip-style 목차를 넣어줘.
각 논문은 독립적인 큰 카드로 보여줘.

각 논문 카드에는 다음 정보를 포함해:
- 논문 번호
- 제목
- venue 또는 출처
- URL
- 한 줄 핵심 요약
- 13개 항목 요약
- source chip 또는 citation link

[13개 항목 레이아웃 고정]
13개 항목은 절대 2-column grid로 만들지 말고, 반드시 원컬럼으로 세로 방향에 하나씩 쌓아.
각 항목은 한 줄 또는 한 블록 형태의 horizontal row/card로 보여줘.
각 row는 왼쪽에 번호 badge, 가운데 또는 오른쪽에 항목명과 요약 문장이 오도록 해.
01 → 13 순서가 시각적으로 명확해야 해.
13개 항목 row는 무지개색 흐름으로 전개해.
단, row 전체를 강한 원색으로 채우지 말고, Apple-style처럼 절제된 방식으로 번호 badge, 왼쪽 accent line, 아주 연한 background tint에만 색을 적용해.
색 흐름은 red → orange → yellow → lime → green → teal → cyan → blue → indigo → violet → purple → pink → rose 순서처럼 자연스럽게 이어지게 해.
항목명은 해당 row 색상의 어두운 계열로 표시하고, 본문 텍스트는 가독성을 위해 어두운 gray/black 계열을 유지해.
항목명은 굵게 표시하고, 내용은 읽기 쉬운 본문 크기로 표시해.
배경/문제/기존한계/목표/방법/핵심아이디어/검증/결과/비교/의의/한계/향후과제/자원공개가 눈에 잘 구분되게 해.
hover effect, subtle shadow, rounded corner, spacing을 사용해.
모바일에서도 읽기 좋게 responsive design을 적용해.
표 형태보다는 카드/row 형태가 좋고, 가독성을 최우선으로 해.
정량 결과가 있는 경우 숫자는 bold 처리해.
코드/데이터 공개 여부는 자원 공개 항목과 카드 하단 source chip에서 다시 확인 가능하게 해.

[레이아웃 구현 예시]
13개 항목은 다음 구조를 반복해서 만들어:

<div class="summary-list">
  <div class="summary-row">
    <div class="row-index">01</div>
    <div class="row-body">
      <div class="row-label">배경</div>
      <div class="row-text">...</div>
    </div>
  </div>
  <div class="summary-row">
    <div class="row-index">02</div>
    <div class="row-body">
      <div class="row-label">문제</div>
      <div class="row-text">...</div>
    </div>
  </div>
</div>

CSS에서는 반드시 다음 원칙을 지켜:
.summary-list {
  display: flex;
  flex-direction: column;
  gap: 12px;
}
.summary-row {
  display: flex;
  align-items: flex-start;
  gap: 14px;
}
절대 .summary-list에 grid-template-columns: repeat(2, ...) 같은 2-column 구조를 쓰지 마.

[시각 디자인 가이드]
- 전체 디자인은 Apple-style에 가깝게 밝고 절제된 톤으로 구성해.
- 배경은 #f5f5f7 계열의 밝은 gray를 사용하고, 카드는 white 또는 반투명 white 느낌으로 만들어.
- rounded corner, 얇은 border, 부드러운 shadow, 넓은 여백을 사용해.
- primary accent는 Apple blue 계열을 사용하되, 13개 요약 항목에는 rainbow accent를 적용해.
- rainbow accent는 과하게 장식하지 말고 번호 badge, 왼쪽 line, 연한 row tint 정도로만 사용해.
- 무지개색은 “정보 구조를 구분하는 색”이지 “장식 배경”이 아니게 해줘.
- 본문 가독성을 최우선으로 하고, 긴 문장은 충분한 line-height를 둬.
- 논문별 card는 충분한 margin과 padding을 둬.
- source chip은 작은 pill 형태로 만들어.
- 모바일 화면에서는 row가 자연스럽게 줄바꿈되도록 해.
- 긴 URL은 줄바꿈되도록 word-break 처리를 해.

[출처와 링크 처리]
- 각 논문 카드 하단에 source chip을 넣어 paper, PDF, project, GitHub, dataset, checkpoint 링크를 정리해.
- 확인한 링크만 넣고, 확인하지 못한 링크는 넣지 마.
- 공개 예정이지만 아직 확인되지 않은 경우 source chip이 아니라 자원 공개 문장 안에서 “공개 예정으로 명시됨, 실제 링크는 확인되지 않음”이라고 써.
- 각 논문 요약의 핵심 근거가 되는 링크는 카드 하단에서 접근 가능해야 해.

[최종 응답 방식]
- HTML 파일을 생성한 뒤 다운로드 링크를 제공해.
- 파일명은 paper_summaries_apple_style.html로 해.
- HTML 코드 전체를 채팅창에 길게 붙여넣지 말고, 파일로 제공해.
- 파일을 만들 수 없는 환경이면, 완전한 HTML 코드를 하나의 code block으로 제공하되, 사용자가 그대로 저장하면 동작해야 해.

[최종 품질 점검]
최종 파일을 제공하기 전에 다음을 확인해:
- 논문 개수가 입력 리스트와 일치하는가?
- 각 논문마다 13개 항목이 모두 있는가?
- 항목 순서가 01~13으로 고정되어 있는가?
- 13개 항목이 2-column이 아니라 원컬럼 vertical layout인가?
- 각 항목이 1문장 원칙을 지키는가?
- 정량 결과, baseline, dataset, robot platform, 공개 자원 여부가 가능한 한 반영되었는가?
- 불확실한 내용이 확정적인 표현으로 쓰이지 않았는가?
- HTML이 self-contained이고 모바일 대응이 되는가?
WIP Evaluator

작성 중인 논문에 13 Questions 적용하기

이 13-question framework는 완성된 논문을 사후 요약하는 데서 끝나지 않고, 기획안·abstract·introduction·manuscript draft가 논문으로서 충분히 설득력 있는지 점검하는 evaluator로도 쓸 수 있습니다.

1
Summary에서 Evaluation으로
각 항목을 “무엇을 말하는가?”가 아니라 “현재 draft가 이 질문에 충분히 답하는가?”로 뒤집어 봅니다.
2
Green / Yellow / Red 진단
13개 질문마다 충족도, manuscript 근거, 약한 이유, 개선 액션, 우선순위를 함께 출력하게 합니다.
3
Reviewer 관점
약한 항목은 reviewer가 공격할 지점으로 보고, 실험·비교·문장·figure 보강 전략까지 제안하게 합니다.
4
Revision Strategy
단순 비판이 아니라 abstract, introduction, contribution bullet, experiment section에 바로 반영할 수정 방향으로 바꿉니다.
작성 중 논문 평가용 프롬프트
아래는 작성 중인 논문 기획안 또는 manuscript draft이다.
이를 완성 논문처럼 요약하지 말고, 13개 질문을 기준으로 논문의 설득력과 완성도를 평가해줘.

[입력]
- 논문 제목:
- 목표 venue:
- 현재 단계: idea / abstract / intro / method / experiment plan / full draft
- manuscript 또는 기획안:

[평가 방식]
각 항목에 대해 현재 draft가 충분히 답하고 있는지 Green / Yellow / Red로 판단해.
각 항목마다 다음 5가지를 제시해.
1. 현재 충족도
2. manuscript 근거
3. 약한 이유
4. 개선 액션
5. 우선순위: Must-fix / Should-fix / Nice-to-have

[13개 평가 질문]
1. 배경: 독자가 왜 이 문제가 중요한지 빠르게 납득하는가?
2. 문제: 풀려는 문제가 너무 넓거나 모호하지 않은가?
3. 기존 한계: prior work의 한계가 우리 방법의 필요성과 직접 연결되는가?
4. 목표: 논문의 목표가 측정 가능하고 검증 가능한 형태인가?
5. 방법: 방법 설명이 입력, 출력, 모듈, 학습/추론 절차로 충분히 재현 가능한가?
6. 핵심 아이디어: 이 논문의 한 문장짜리 technical insight가 선명한가?
7. 검증: 실험이 주장하는 contribution을 실제로 검증하는가?
8. 결과: 결과가 “좋다”가 아니라 어떤 metric에서 얼마나 좋은지 말하는가?
9. 비교: baseline이 공정하고 충분히 강한가?
10. 의의: 결과의 의미가 과장 없이 venue 독자에게 설득되는가?
11. 한계: reviewer가 찌를 약점을 선제적으로 다루는가?
12. 향후 과제: future work가 실험 부족의 핑계처럼 보이지 않는가?
13. 자원 공개: 코드, 데이터, benchmark 공개 계획이 신뢰를 높이는가?

[최종 출력]
- 전체 verdict: Strong / Promising but incomplete / Weak
- 가장 약한 3개 항목
- accept 가능성을 높이는 top-5 revision actions
- 지금 당장 고쳐야 할 문장 또는 section-level 수정 제안