Executive summary
AI “모델” 자체보다 **AI를 붙여 ‘업무 시스템’으로 만드는 도구(=AI 빌더)**가 성숙하면서, 전문직의 경쟁구조가 “면허/경력” 단일축에서 워크플로우 설계·데이터 거버넌스·책임 설계를 포함한 복합축으로 이동하고 있습니다.
가장 빠르게 변하는 구간은 문서·증거·기록·보고 형태의 지식노동입니다. LLM이 단독으로 일자리를 “대체”한다기보다, **LLM+소프트웨어(검색·도구호출·워크플로우·감사로그)**가 결합될 때 영향이 커진다는 점이 연구에서 반복 확인됩니다.
한국은 2026년 시행된 **AI 기본법(인공지능 발전과 신뢰 기반 조성 등에 관한 기본법)**과 시행령을 통해, 생성형 AI/고영향 AI를 제공하는 “사업자”의 투명성(사전고지, 표시/워터마크 등) 의무 체계가 자리 잡기 시작했습니다. 전문직 영역의 실무 도입은 결국 (1) 출력 품질(환각/편향) (2) 책임소재 (3) 개인정보·기밀의 3요소를 어떻게 설계하느냐에 의해 속도가 갈립니다.
직업군별로 보면, 회계사·변호사는 텍스트 기반 업무 비중이 높아 단기 생산성 변동이 크고, 의사는 환자안전·의료기기 규제·데이터 규율로 인해 “보조(augmentation)” 중심의 도입이 진행됩니다. 예술가는 제작(생성) 자동화가 가장 빠르지만, 저작권·표시·학습데이터 규율 변화에 따라 수익모델이 크게 재편됩니다.
르무엘님(웹개발/백엔드/SI) 관점에서의 결론은 단순합니다. “AI를 쓰는 사람”이 아니라 “AI를 업무에 안전하게 붙여서 운영하는 사람”(거버넌스·평가·감사·보안·통합을 포함)이 가치가 커집니다. 즉, 전문직 변화는 곧 현장형 AI 시스템 통합/운영 역량 수요로 이어집니다.
AI 빌더 도구 지형과 핵심 기능
AI 빌더는 “프롬프트를 잘 쓰는 도구”가 아니라, **업무 데이터(문서/DB/로그) + 행동(도구 호출) + 통제(권한/감사/정책)**를 묶어 반복 운영 가능한 에이전트/앱으로 만드는 스택입니다.




범주별 도구와 기능 요약
| GPT 기반 생성기(맞춤형 에이전트) | OpenAI의 GPTs/Projects, 도구 호출(Function/Tool calling) | 지침(Instruction)·지식(파일/소스)·행동(Actions/함수호출) 결합, 장기 작업공간(Projects) | “업무용 Copilot”을 현업이 직접 만들고 반복 사용(사내 규정/템플릿/체크리스트 내장) |
| 코드·노코드 에이전트/앱 플랫폼 | Microsoft Copilot Studio, Google Cloud Vertex AI Agent Builder, Amazon Web Services Bedrock Agents | 커넥터·워크플로우·배포 채널·도구 거버넌스(허용 도구 제어) | “업무시스템(메일/문서/ERP/EMR)”에 붙는 자동화가 쉬워져, SI 방식으로 확산 |
| 자동화 툴(RPA + 에이전틱) | UiPath, (또는 워크플로 자동화) | 기존 RPA의 안정성 + LLM의 비정형 처리(문서/메일/요약/분류) 결합, 가드레일·에스컬레이션·감사 가능성 강조 | “규칙 기반 반복업무”는 RPA, “비정형 문서/언어”는 LLM이 맡는 하이브리드가 현실적 |
| 업무용 에이전트 빌더(통합 자동화) | Zapier 등 | 앱 연동(수천 개 커넥터), 템플릿 기반 에이전트 구성 | 소규모 사무소/개인 전문가에게 “개발 없이 통합”을 제공(다만 통제·보안 설계가 관건) |
| 도메인 특화 LLM/어시스턴트 | (법률) CoCounsel, Harvey 등 / (회계·세무) 회계·세무 특화 LLM / (의료) 임상 문서화(스크라이브) | 도메인 코퍼스·전문 워크플로우 내장(검색/요약/작성/검토) | “일반 모델의 환각”을 줄이기 위해 전용 데이터+검증 루프를 제품화 |
왜 “AI 빌더”가 직업 구조를 바꾸는가
핵심은 비용 구조입니다. LLM이 직접 업무를 대신하는 비중보다, LLM을 내장한 소프트웨어가 업무 시간을 단축시키는 비중이 더 커질 수 있다는 분석이 있습니다. 예컨대 한 연구는 LLM 단독보다 “LLM 기반 소프트웨어·툴링”을 결합했을 때 영향을 받는 작업 비중이 더 커질 수 있음을 제시합니다.
또한 “현업이 직접 만든 도구”가 늘면, 조직은 중앙 IT가 통제하지 못한 섀도우 AI(무단 데이터 업로드, 모델 혼용, 로그 부재)를 겪기 쉬워집니다. 이 지점에서 한국의 개인정보·이용자보호 가이드라인이 요구하는 사전 고지·동의·책임범위 안내·모니터링 체계가 실무 리스크로 직결됩니다.
네 직업군의 업무 구조와 제약
아래 분해는 “업무가 어떤 형태의 입력(자료)→처리(추론/작성)→출력(문서/판단)→책임(서명/설명)”으로 이루어지는지에 초점을 둡니다. 특히 전문직은 “출력 품질”뿐 아니라 책임의 귀속이 업무의 일부입니다(법적/윤리적 책임).
업무 요소 분해와 비율 추정
아래 “반복/창의/판단 비율”은 공개된 직무기술(업무 성격)과 최근 도입 사례를 근거로 한 **업무 성격의 상대적 분해(추정치)**입니다. 숫자 자체는 “측정값”이 아니라, AI 도입 시 변동 폭을 가늠하기 위한 모델링 변수로 이해하는 게 맞습니다.
| 회계사 | 기장·결산, 세무, 감사(리스크 평가, 증거수집, 문서화, 의견표명) | 40–60% | 10–20% | 30–45% | 기업·경영진·감사위원회 중심, 문서/수치 기반 | 감사품질·독립성·문서화 요구, AI 사용과 품질관리의 연결(감사 기준/감독) |
| 변호사 | 리서치, 문서작성, 계약/소송 전략, 협상, 법정 제출·대리 | 35–55% | 15–25% | 30–45% | 의뢰인 커뮤니케이션 + 상대방/기관 대응 | 비밀유지·정확성·설명의무, AI 사용 시 윤리(예: ABA Formal Opinion 512) |
| 의사 | 진단·치료 결정, 처치, 환자 설명·동의, 의무기록, 검사 오더/판독 협업 | 20–40% | 10–15% | 45–60% | 대면·고신뢰 상호작용, 설명·동의/관계 형성이 핵심 | 환자안전·데이터 규율·의료기기(소프트웨어) 규제, “최종 책임은 의료인” 원칙이 강화 |
| 예술가 | 기획·콘셉트, 제작(이미지/음악/영상 등), 편집·연출, 유통·커뮤니티·브랜딩 | 25–45% | 35–55% | 15–25% | 팬/플랫폼 기반, 반복 제작+차별화 전략 | 저작권·표시·학습데이터 논쟁, 등록/권리화에서 “인간 기여” 입증 필요 |
규제·윤리 제약의 구조적 차이
회계·법률·의료는 공통적으로 기밀/개인정보를 다루며, 출력물 오류가 “불편” 수준을 넘어 법적 손해로 직결됩니다. 이 때문에 (1) 데이터 업로드 통제 (2) 근거 기반 작성(검색증강/RAG) (3) 감사로그(누가 어떤 근거로 무엇을 출력했는지) (4) 최종 서명권자의 검토 루틴이 사실상 필수입니다.
반면 예술은 “생명/재산/절차”의 즉시 위험이 상대적으로 낮아 도입 속도는 빠르지만, 권리(저작권/초상/상표)와 수익 배분에서 충돌이 커질 가능성이 높습니다. 한국은 인공지능-저작권 제도개선 협의체를 출범시키는 등 제도 정비를 병행하고 있습니다.
AI 도입으로 인한 기회와 위협
공통 기회
첫째, 생산성입니다. 전문직은 “정보탐색·요약·초안·정형 문서”가 병목인 경우가 많고, 여기에서 체감효과가 큽니다. 예를 들어 전문직 대상 조사에서는 “주당 몇 시간” 단위의 시간 절감 기대가 보고됩니다(법률 포함).
둘째, 서비스 확장입니다. AI 빌더가 확산되면 ‘1인/소수 인력’이 처리 가능한 케이스 수가 늘고, 가격구조(정액 구독, 준자동화 패키지) 자체가 바뀔 수 있습니다. 이는 특히 법률·세무·회계의 중저가 시장(중소기업/자영업)에서 접근성을 높일 여지가 있습니다.
셋째, 품질의 표준화입니다. “개인 역량”으로 편차가 크던 문서 품질을 체계(템플릿·체크리스트·근거 표기·버전관리)로 묶을 수 있습니다. 다만 이는 “AI가 품질을 올린다”가 아니라, AI를 계기로 품질관리 체계를 구축할 때 가능한 효과입니다.
공통 위협
첫째, 품질·책임 리스크입니다. LLM의 “그럴듯한 오류”는 법률·회계·의료에서 치명적입니다. 실제로 법원 제출 문서에 AI가 생성한 허위 판례/인용이 포함돼 제재로 이어진 사례가 존재합니다.
둘째, 규제 리스크와 데이터 리스크입니다. 한국의 개인정보/이용자 보호 가이드라인은 입력·생성 데이터의 활용에 대한 고지, 책임 범위 안내, 모니터링 등 조직적 통제를 강조합니다. 규제 준수를 “문서로만” 하고 실제 로깅/접근통제/교육이 없는 상태에서 AI를 확산시키면, 사고 발생 시 방어가 어렵습니다.
셋째, 대체 위험의 양상 변화입니다. “직업 전체의 대체”보다 엔트리 레벨(주니어) 업무(초안, 리서치, 정리) 축소가 먼저 나타날 가능성이 큽니다. 이는 전문직의 전통적 육성 구조(초급→중급→파트너/전문의)에서 병목을 만들고, 교육/수련 방식 재설계를 강제합니다. LLM 노출 연구들이 “고숙련 직무도 영향권”임을 보여준다는 점이 이 논점의 배경입니다.
국내외 도입 사례와 타임라인 전망
아래는 “실제 공개된 도입/파일럿”을 기반으로, 단기(2026–2028)·중기(2029–2031)·장기(2032–2036)로 나눈 전망입니다. 수치는 “예상 시나리오”이며, 규제·데이터 접근성·책임 분배가 바뀌면 크게 달라질 수 있습니다.
회계사
국내에서는 “회계·세무 특화 AI”를 공개적으로 내세우는 사례가 나타났고(예: 세무 데이터+검증을 결합한 생성형 AI 솔루션), 재무/회계/감사 업무 종사자 조사에서 도입률 상승이 보고되기도 합니다.
해외에서는 감사 플랫폼에 생성형 AI를 통합하는 발표가 이어지고, 규제기관은 “AI 사용이 감사 품질에 미치는 영향”을 문서화·설명하는 방향으로 가이던스를 내고 있습니다.
정량 추정(시나리오): 단기에는 문서/계정 검토·요약·내부통제 문서화에서 업무시간 10–25% 절감이 가능하되, 품질관리(검증·문서화) 비용이 일부 상쇄할 수 있습니다(즉 “절감=즉시 이익”이 아님). 기반 연구는 “툴링 결합 시 과업 단축 비중이 커질 수 있음”을 제시합니다.
변호사
법률 영역은 도메인 특화 도구가 빠르게 확산 중입니다. 예를 들어 법률 AI 어시스턴트가 문서 검토·리서치·초안 작성을 자동화하며 사용자 규모가 성장했다는 공개 지표도 있습니다.
대형 로펌이 법률 AI를 전사 도입한 사례도 공식적으로 발표되어 왔습니다.
동시에, 윤리 가이던스가 정교해지고 있습니다. 미국 변호사단체는 생성형 AI 사용과 관련된 핵심 윤리 이슈(기밀, 역량, 정확성, 비용 등)를 정리한 공식 의견을 냈고, 법원은 AI 사용으로 생성된 허위 인용에 대해 제재를 실제 집행했습니다.
한국 사법부 역시 판사용 AI 가이드북을 발간하고(2026), 사법부 AI 위원회 출범 등 제도적 기반을 만들고 있습니다.
정량 추정(시나리오): 단기에는 리서치/요약/초안 자동화로 “주당 몇 시간” 단위의 절감이 가능하지만, 법정 제출물·의견서는 검증 비용이 필수라 순절감은 조직 성숙도(표준양식·근거표기·리뷰체인)에 달립니다.
의사
한국에서는 의료 현장 생성형 AI 활용 원칙(공적 실천 기준)을 제시하는 기관 보고가 나왔고, 핵심 메시지는 “잘 만드는 AI”가 아니라 “잘 사용하는 AI”이며 최종 책임은 의료인이라는 방향성을 명시합니다.
병원 단위 도입도 진행 중입니다. 예를 들어 서울아산병원은 의료진-환자 대화를 실시간 기록·요약해 의무기록 작성까지 자동화하는 AI 기반 시스템을 구축했다고 공지했습니다.
규제 측면에서는 식품의약품안전처가 “생성형 AI 의료기기” 허가·심사 가이드라인을 공개했다고 밝히는 등(2025) 디지털 헬스 규율이 구체화되는 흐름이 있습니다.
글로벌 차원에서는 U.S. Food and Drug Administration이 내부 과학심사에서 생성형 AI 파일럿 완료 및 기관 단위 확대를 발표하는 등, 규제기관도 문서업무 자동화에 AI를 투입하고 있습니다.
정량 추정(시나리오): 단기(2026–2028)에는 “기록·요약·행정” 중심으로 10–20% 수준의 시간 재배치가, 중기에는 검사결과 요약·환자 커뮤니케이션 초안·임상연구 문헌정리 등으로 확장될 가능성이 큽니다. 다만 임상 판단(진단/처방) 자동화는 안전성과 책임이 결합되어 있어 상대적으로 느립니다.
예술가
한국은 생성형 AI와 저작권의 관계를 다루는 안내서를 발간하고, AI-저작권 제도개선 협의체를 출범시키는 등(2025) 권리화·표기·제도 정비를 진행 중입니다.
정책적으로는 AI 학습데이터의 저작권 불확실성을 줄이기 위한 가이드라인 마련 및 제도 개선 검토가 언급되는 등, “학습 단계” 자체가 규율 대상으로 들어오고 있습니다.
해외에서는 AI 산출물의 저작권 성립(인간 저작자 요건)과 학습데이터 사용의 법적 쟁점을 다룬 공식 보고서가 발간되었습니다.
또한 한국 AI 기본법은 생성형 결과물 표시(워터마크 등)와 투명성 고지 체계를 두면서, 창작물 유통 단계의 “표시·추적” 이슈를 키우고 있습니다(의무 주체는 원칙적으로 “AI 제품/서비스 제공 사업자” 구조).
정량 추정(시나리오): 단기에는 제작(이미지/영상/사운드) 단가 하락(공급 증가)과 동시에, 콘셉트/디렉션/편집/브랜딩의 가치가 상승합니다. 장기에는 “개인 크리에이터도 스튜디오급 제작량”을 낼 수 있어, 상위는 초과수익을, 중간층은 경쟁심화를 겪을 가능성이 있습니다(불평등 리스크). 이는 AI 확산이 불평등을 심화시킬 수 있다는 거시적 경고와도 정합적입니다.
직업별 자동화 리스크·업스킬 비교 표
| 자동화에 취약한 업무 | 정형 문서화(감사문서 초안, 체크리스트), 증빙 분류/요약, 규정 검색 | 판례/법령 1차 리서치, 계약서 초안·조항 비교, 디스커버리 문서 요약 | 의무기록/서신 초안, 검사결과 요약, 예약·행정·청구 보조 | 시안 생성, 반복 편집, 단순 변주(스타일링), 썸네일·카피 대량 생성 |
| 인간 판단이 핵심인 업무 | 중요성 판단, 감사의견·리스크 결론, 이해관계자 커뮤니케이션 | 사실관계 확정, 전략·협상, 법적 책임이 걸린 제출물 최종 검증 | 진단·처방, 위험-편익 판단, 설명·동의·관계 형성 | 콘셉트/세계관, 취향·문화 맥락, 독창성 설계, 팬/시장과의 신뢰 구축 |
| 규제/윤리 제약 | 감사규제·문서화 기대(규제기관 가이던스 포함) | 비밀유지·윤리(생성형 AI 사용 가이던스), 법원 제출물 정확성 | 의료기기·환자안전·의료데이터 규율, “최종 책임” 원칙 | 저작권/표시/학습데이터 이용 쟁점, 권리화 기준(인간 기여) |
| 단기 자동화 위험 (2026–2028) | 중 | 중 | 낮–중(행정/기록 중심) | 중–높(제작/편집 일부) |
| 중기 자동화 위험 (2029–2031) | 중–높 | 중–높 | 중(지침/규제 정교화 전제) | 높 |
| 장기 자동화 위험 (2032–2036) | 높(주니어 업무 구조 변화) | 높(표준 문서/리서치 축소) | 중(판단 자동화는 제한적) | 높(제작 commoditization) |
| 추천 업스킬 | AI 기반 감사품질관리(평가/로그/문서화), 데이터 분석·통제 설계 | AI 검증 루틴(근거/인용 검증), 프롬프트·템플릿·지식베이스 설계, 리스크 커뮤니케이션 | 의료 AI 리터러시+안전사용(원칙/감사), 데이터 거버넌스, 환자 커뮤니케이션 | 저작권·라이선싱 실무, 창작 디렉션(멀티모달), 팬덤/브랜드 운영, 툴체인 자동화 |
Mermaid: 직업별 도입 단계 타임라인(예상)
대응 전략과 정책 권고
전문가(개인/조직) 대응 전략
첫째, “작업 단위”로 재설계해야 합니다. 직업이 아니라 업무 요소가 자동화됩니다. 따라서 프로세스를 (1) 입력 데이터 유형 (2) 오류의 비용(리스크) (3) 검증 가능성 (4) 책임 주체로 분해해, AI 적용 범위를 정해야 합니다.
둘째, 검증 가능한 AI로 설계해야 합니다. 법률·회계는 근거(인용)가 핵심이고, 의료는 안전성과 설명이 핵심입니다. 따라서 “생성”보다 검색증강(RAG)·근거 링크·로그가 우선입니다. 이는 NIST의 생성형 AI 리스크 관리 프로파일이 강조하는 생애주기 기반 리스크 관리 방식과도 결이 같습니다.
셋째, 교육은 프롬프트 기술보다 업무 통제·책임의 언어로 해야 합니다. 변호사 영역에서는 공식 윤리 가이던스가 “기밀·역량·커뮤니케이션·비용”으로 이슈를 구조화했고, 의료 영역은 “최종 책임·안전 사용 원칙”을 전면에 둡니다. 회계/감사는 규제기관 가이던스가 “문서화·평가”를 강조합니다. 교육 커리큘럼도 이 프레임을 그대로 가져가야 합니다.
넷째, 비즈니스 모델을 재정의해야 합니다. AI가 초안을 만들면, 고객이 돈을 내는 지점은 “문서 생산”이 아니라 (1) 위험을 줄이는 보증(assurance) (2) 책임있는 판단 (3) 맞춤 전략 (4) 규제 대응이 됩니다. 즉, 가격은 “시간당”에서 “성과/위험 기준”으로 이동할 개연성이 큽니다.
전문가용 의사결정 플로우차트
규제강도가 높은 3개 직업(회계·법률·의료)의 도입 판단 경로
예술가(창작자)의 도입 판단 경로
정책 권고(규제·면허·책임·데이터)
첫째, “면허 업무”의 경계를 행위 단위로 재정의할 필요가 있습니다. AI가 개입한 업무에서 핵심은 “누가 최종 판단을 했는가”와 “그 판단의 근거·절차가 기록되는가”입니다. 한국 AI 기본법의 투명성/표시 의무 체계는 사업자 단위를 중심으로 설계되어 있어, 전문직 실무에서는 “기관 내부 AI 사용”과 “대외 제공 AI 서비스”의 경계 정의가 중요해집니다.
둘째, 책임 분배(전문가 vs 기관 vs 벤더)를 표준화해야 합니다. 의료 영역은 “최종 책임은 의료인” 원칙이 명시적으로 제시되고 있어, 시스템 설계는 의사의 검토·수정·승인 로그를 남기는 방향으로 가게 됩니다. 유사하게 회계·법률도 “최종 서명”을 대체하기 어렵기 때문에, 책임을 줄이는 길은 “면책”보다 “검증 가능한 절차”입니다.
셋째, 데이터·프라이버시 측면에서 “입력 데이터의 2차 사용(학습)”을 기본값으로 금지/제어하고, 명시적 고지·동의·거부권을 구조적으로 제공해야 합니다. 이용자 보호 가이드라인은 입력/생성 데이터를 학습데이터로 활용할 때 사전 고지와 선택권 보장을 강조합니다. 이 요구사항은 전문서비스 조직이 고객 데이터를 다룰 때 사실상 준수해야 할 운영 기준이 됩니다.
넷째, 저작권 정책은 “산출물 표시”와 “학습데이터 규율”을 함께 보아야 합니다. 한국은 AI-저작권 제도개선 협의체를 운영하고, 학습데이터 공정이용 기준 구체화 및 법령 개선 검토를 언급하고 있습니다. 창작자 보호와 산업 진흥의 균형은 결국 데이터 거래/라이선스 시장을 키우는 방향으로 가야 충돌 비용이 줄어듭니다.
경제·사회 파급효과와 불확실성
고용·임금·불평등
국제기구 분석에서는 전 세계 고용의 상당 비중이 AI에 “노출”되어 있으며, 선진국에서 노출이 더 크되 생산성 기회도 크다는 식의 이중 효과가 제시됩니다.
LLM의 업무 영향 연구는 “많은 직무의 일부 과업이 영향을 받는다”는 형태로 나타나며, 특히 고임금·인지 노동도 영향권이라는 결과가 보고되었습니다.
이 조합은 전문직에서 (1) 주니어 축소 (2) 상위 전문가의 처리량 증가 (3) 중간층의 경쟁 심화를 만들 수 있고, 결과적으로 소득 분포를 더 벌릴 가능성이 있습니다. IMF는 AI가 불평등을 악화시킬 수 있다는 경고를 공개적으로 제시해 왔습니다.
접근성(서비스 질 vs 비용)
긍정적으로는 법률·세무·의료의 “정보 비대칭”이 완화되어, 초기 상담/트리아지/문서 준비의 비용이 내려갈 수 있습니다. 다만 이는 “AI가 정확해서”가 아니라, AI가 저렴한 1차 보조선을 제공할 때 가능한 효과입니다.
부정적으로는 “싼 서비스=검증 없는 서비스”가 될 수 있습니다. 특히 공공문서에서도 생성형 AI 기반 오류(허위 인용/가짜 근거)가 문제 된 사례가 보고되어, 도입이 곧 품질향상을 의미하지 않는다는 점이 확인됩니다.
핵심 불확실성·리스크 요인
가장 큰 불확실성은 (1) 규제의 정교화 속도 (2) 데이터 이용(학습/저작권) 분쟁의 결론 (3) 모델 품질의 안정화(환각/편향/보안)입니다. NIST의 생성형 AI 리스크 관리 문서가 생애주기 전반(설계-개발-배포-운영)에서의 위험 관리를 요구하는 이유가 여기에 있습니다.
한국 맥락에서는 AI 기본법의 투명성/표시·고영향 AI 관리 체계가 “사업자 의무” 중심으로 자리 잡는 과정에서, 전문직 조직이 내부 AI를 어떻게 운영·통제할지(특히 SI 형태로 확산될 때) 세부 해석과 집행이 변수로 작동할 수 있습니다
'Product & Solution' 카테고리의 다른 글
| 한국 IT 기술 수요·임금·고용 안정성 트렌드 (0) | 2026.02.24 |
|---|---|
| 디지털 헬스케어 혁신을 주도하는 아이디애스앤트러스트의 전략적 시장 지위와 미래 성장 동력 분석 (0) | 2026.02.24 |
| 미래 모빌리티 산업의 디지털 중심축: 현대오토에버의 전략적 위상과 혁신 역량 분석 (0) | 2026.02.23 |
| 다우기술의 시장 지배력과 지속 가능 성장을 위한 통합적 경영 전략 분석 (0) | 2026.02.23 |
| 디지털 전환 및 커머스 기술 생태계의 전략적 기수: 플래티어(PLATEER)에 대한 심층 산업 분석 (0) | 2026.02.23 |


















