반응형

7. 사업 평가 항목 및 가·감점 전략
목표
- 정부사업의 평가 체계(연구·용역) 구조를 이해
- 평가항목별 핵심 의도와 실제 점수 반영 방식 파악
- 가점 및 감점 항목을 실무적으로 반영하는 방법 습득
- 제안서 내 점수화 가능한 요소(정량지표) 설계 역량 강화
- 평가대응 전략 및 발표평가 대비 노하우 학습
목차
- 정부사업 평가의 구조와 절차
- IRIS 연구사업 평가항목 이해
- 나라장터 용역사업 평가항목 분석
- 공통 평가항목별 전략적 대응법
- 가점 항목의 종류와 실제 반영 사례
- 감점 사유 및 리스크 예방 전략
- 발표평가 및 서면평가 대응법
- 실무 사례: 기술평가에서 점수를 높인 제안서
Ⅰ. 정부사업 평가의 구조와 절차
1. 평가의 목적
정부사업의 평가 목적은 단순히 “좋은 제안서를 뽑는 것”이 아니라, 정부 예산을 가장 효과적으로 활용할 수 있는 수행기관을 선정하는 것입니다.
즉, 평가위원들은 “이 사업이 성공적으로 수행될 가능성”을 수치로 판단합니다.
2. 평가 프로세스 개요
1️⃣ 서면평가: 제출된 제안서의 내용 검토 (형식·논리·예산 타당성)
2️⃣ 발표평가: 기술책임자 또는 PM의 발표 및 질의응답
3️⃣ 협상평가: 점수 상위 기업 중심으로 예산·일정 조정
4️⃣ 최종선정: 종합점수(기술+가격+가점)를 합산하여 결정
3. 평가점수 구성
- 기술평가 80점 + 가격평가 20점 (협상계약형 사업 기준)
- 가점항목은 기술평가에 추가 가중 (최대 5~10점 범위)
Ⅱ. IRIS 연구사업 평가항목 이해
1. 평가 구조
IRIS 기반 연구사업은 기술성·사업성·수행역량·정책부합성의 네 가지 축으로 구성됩니다. (사업별 상이 확인필요.)
평가항목 주요 세부내용 비중(%)
| 기술성 | 연구목표, 방법, 차별성 | 40 |
| 사업성 | 시장성, 경제적 파급효과 | 30 |
| 수행역량 | 연구책임자 역량, 인력 구성 | 20 |
| 정책부합성 | 정부 전략, 사회적 가치 반영 | 10 |
2. 평가 기준별 포인트
- 기술성: “기존 기술 대비 혁신성”을 수치화 (TR Level 5→7 목표 등)
- 사업성: “시장규모, 수요처 확보 계획” 명시
- 수행역량: 연구책임자의 과거 실적, 참여기관의 수행능력 강조
- 정책부합성: “디지털전환, 탄소중립, 데이터경제” 등 정부핵심 키워드 삽입
3. 실제 평가방식
- 각 평가위원(5~7명)이 항목별 점수를 부여 → 평균 산출
- 최저점·최고점 제외한 평균점이 최종점수로 반영
- 가점항목(여성기업, 지역기업, 우수기관 등) 별도 합산
Ⅲ. 나라장터 용역사업 평가항목 분석
1. 평가체계
나라장터의 기술평가는 조달청 “협상에 의한 계약 기준(조달청 고시)”을 따릅니다. (사업별 상이 확인필요.)
평가항목 주요 내용 비율(%)
| 수행계획의 적정성 | 과업범위, 추진방법, 일정관리 | 40 |
| 수행인력의 전문성 | 경력, 자격, 역할분담 | 20 |
| 수행기관의 역량 | 실적, 재무건전성, 기술장비 | 20 |
| 사업의 이해도 및 의지 | 과업이해, 추진의지 | 10 |
| 기타 | 지역기업, 중소기업 등 가점항목 | 10 |
2. 기술·가격 평가 비중
- 기술평가 80점 + 가격평가 20점
- 낙찰자는 기술평가 점수 상위자부터 협상기회 부여
3. 평가위원 구성
- 발주기관에서 지정한 전문가 5~9인
- 기술(전문가) 70%, 행정(공무원) 30% 구성
- 평가위원 익명, 무기명 채점
Ⅳ. 공통 평가항목별 전략적 대응법
1. 기술성(기술적 완성도)
- 핵심 기술의 구조, 프로세스, 차별성 시각화
- 기존 기술과 비교표 작성 (“당사 vs 기존 vs 경쟁사”)
- 기술 수준을 TRL(기술성숙도)로 표현
2. 사업성(시장성)
- 시장규모, 수요기관, 활용계획을 정량화
- “예상 매출액”보다는 “정책 효과” 강조
- 수요기관 협의서나 MOU 첨부 시 가점 효과 큼
3. 수행역량(인력 및 조직)
- 핵심인력 3~5인 중심으로 이력 간결하게 작성
- 유사사업 수행경험을 정량화 (“최근 3년간 ○건 수행”)
- 전담조직(사업관리팀, 회계팀 등) 운영체계 명시
4. 정책부합성(정부 방향 연계)
- 공고문 내 “정부정책 방향” 문구를 그대로 인용
- 디지털전환, AI, 탄소중립, ESG 등 키워드 강조
- 사회적 가치(청년고용, 지역균형발전) 반영
Ⅴ. 가점 항목의 종류와 실제 반영 사례
1. 대표적 가점 항목 (사업별 상이 확인필요.)
항목 가점 내용 점수
| 여성기업 | 여성대표 기업 | +2점 |
| 장애인기업 | 장애인 소유기업 | +2점 |
| 지역기업 | 해당 지역 본사 기업 | +1~3점 |
| 중소기업 | 중소기업기본법상 중소기업 | +2점 |
| 사회적기업 | 인증 사회적기업 | +1점 |
| 고용창출 우수기업 | 청년고용율 등 기준 충족 | +1점 |
2. 가점의 실제 영향
- 총점 80점 이상 시 가점 최대 +5점
- 기술점수 1~2점 차이로 낙찰이 갈리는 경우 많음
- 여성기업+지역기업 조합 시 최대 4점 가점 가능
3. 실무 반영 팁
- 가점항목은 사전에 등록 필요 (나라장터 기업정보에서)
- 제출 시 관련 증명서 첨부 (여성기업확인서 등)
- 컨소시엄 구성 시 주관사만 가점 적용
Ⅵ. 감점 사유 및 리스크 예방 전략
1. 주요 감점 사유
유형내용
| 형식 오류 | 제안서 분량 초과, 제출양식 불일치 |
| 과장된 실적 | 증빙 불가 실적 기재 |
| 인력 불일치 | 제안서 인력 vs 실제 수행인력 상이 |
| 일정 오류 | 납기 불이행 또는 과도한 일정 |
| 예산 부적정 | 과다 산정 또는 항목 누락 |
2. 예방 전략
- 모든 실적은 증빙 가능 서류로 정리
- 인력배치표와 수행계획 일치 여부 검증
- 일정표(간트차트)는 여유기간 반영
- 예산비율(인건비 50%, 간접비 10~15%) 확인
3. 심리적 감점 요인
- 발표 태도 불성실, 질의응답 회피
- 시각자료(슬라이드)의 품질 저하
- 문서 내 오타, 용어 불일치
Ⅶ. 발표평가 및 서면평가 대응법
1. 발표평가 준비
- 발표 시간: 10~15분 내외
- 구성: (1) 사업이해 → (2) 수행계획 → (3) 기대효과
- 질의응답: 평가위원 3~5인의 질문 예상
2. 발표 시 유의사항
- 슬라이드에는 핵심 키워드만, 세부 수치는 별도 부록
- “수행 방법”보다 “문제 해결력” 강조
- 질문에 대한 답변은 “데이터 기반”으로 대응
3. 서면평가 대응
- 제안서의 요약서 3페이지가 전체 평가의 50% 결정
- 평가위원은 30분 내 10개 제안서를 봄 → 가독성이 핵심
- 표·도식·간결한 문장 구조로 정리
Ⅷ. 실무 사례: 기술평가에서 점수를 높인 제안서
사례 개요
- 사업명: “AI 기반 지하시설물 예측유지보수 용역”
- 발주기관: 국토교통부
- 예산: 3억 원
- 평가항목: 기술성(40), 수행역량(30), 사업성(20), 정책부합성(10)
전략 포인트
- 기술성: 기존 방식(수동진단) 대비 효율 35% 향상 수치 제시
- 수행역량: 팀 내 박사급 2인, 유사사업 실적 3건
- 정책부합성: 정부의 ‘AI 국토관리 로드맵’ 인용
- 가점항목: 지역기업+여성기업 인증
결과
- 기술점수 76점 + 가점 4점 → 최종 80점으로 1위 낙찰
- 2위 업체와의 차이: 단 1.5점
Ⅸ. 평가결과 피드백 활용과 개선
1. 평가결과 열람 방법
- IRIS: 평가완료 후 전담기관 포털에서 평가결과 확인
- 나라장터: 발주기관의 평가결과 통보 (공문 또는 이메일)
2. 피드백 활용
- 점수 차이를 수치화하여 내부 데이터베이스(DB) 구축
- 평가항목별 개선 포인트 문서화
- 차기 제안서에 “이전 평가결과 반영사항” 명시 (가점 효과 있음)
3. 내부 평가 회의 운영
- 프로젝트 종료 후 “사내 평가보고회” 개최
- 평가점수 분석표 (항목별 평균 vs 당사 점수) 공유
반응형
'특수 전문직 정보' 카테고리의 다른 글
| 9. 정부지원사업 공고문 분석 및 평가 대응 (0) | 2025.11.25 |
|---|---|
| 8. 제안서 및 사업 계획서 준비 실무 (0) | 2025.11.25 |
| 6. 정부 사업 검색 실무 (나라 장터 중심) (0) | 2025.11.24 |
| 5. 정부사업 예산 구조와 사업 금액 산정 이해 (0) | 2025.11.24 |
| 4. 정부지원 사업(R&D) 검색 실무 (IRIS 중심) (1) | 2025.11.19 |