메뉴보기메뉴 보기 검색

AI가 위험요인 찾고 예방책 내놔… “든든한 안전비서” [심층기획-AI, 공존의 조건]

GS파워 열병합발전소 가보니

전 공정에 AI 위험성 평가
직원들 광범위한 활용 요청

위험 현장서 인간 대체 업무
순찰·감시봇 등 개발도 한창

“든든한 ‘안전 비서’가 생긴 느낌이에요.”

8일 경기 부천 GS파워 열병합발전소 내 80도가 넘는 용수가 관로를 타고 흐르는 작업장 안에서 안전 점검을 하던 GS파워 안전보건팀 전국현씨는 이같이 말했다. 전씨 손에는 종이 점검표 대신 태블릿PC가 들려 있었다. 화면에는 인공지능(AI)이 미리 식별한 위험요인과 확인해야 할 점검 항목이 차례로 떠 있었다.

 

경기 부천 GS파워 열병합발전소에서 안전관리 담당 직원들이 8일 AI 위험성 평가 시스템 ‘에어’(AI Risk Assessment·AIR)가 생성한 체크리스트를 보며 설비를 점검하고 있다. 이제원 선임기자
경기 부천 GS파워 열병합발전소에서 안전관리 담당 직원들이 8일 AI 위험성 평가 시스템 ‘에어’(AI Risk Assessment·AIR)가 생성한 체크리스트를 보며 설비를 점검하고 있다. 이제원 선임기자

전씨는 발전소 설비 상태를 확인하고 현장 작업자의 안전을 점검하는 업무를 맡고 있다. 지난해 10월 GS파워가 전 공정에 AI 위험성 평가 시스템인 에어(AI Risk Assessment·AIR)를 도입하면서 점검 방식은 180도 달라졌다. 이전까진 위험성 평가 항목을 직접 작성해야 했다면, 이제는 AI가 공정별로 뽑아낸 체크리스트에 맞춰 위험요인을 살핀다.

에어는 생성형 AI가 공정별 재해 유형을 분석하고, 잠재 위험요인을 찾아낸 뒤 개선 대책까지 제시하는 원스톱 시스템이다. 1시간이 걸리던 문서 작업을 에어는 3분 만에 처리한다. 문서 작성에 쓰던 시간을 절약해 안전점검회의나 실제 위험요인 개선에 더 집중할 수 있게 된 셈이다.

전씨는 “사람은 그날 컨디션에 따라 중요한 위험 요소를 놓칠 수 있고, 과거 사고 사례를 모두 기억하진 못한다”며 “에어는 고용노동부가 제시한 440개 고위험요인 실사례를 반영해 안전 점검 항목을 만들어주기 때문에 현장에서 큰 도움이 된다”고 말했다.

현장 작업자들의 반응도 긍정적이다.

GS파워 안전보건팀 이주필 팀장은 “처음에는 ‘현장에서 땀도 안 흘려본 AI가 발전소에 대해 뭘 알겠어?’라는 불신과 거부감이 있었다”며 “에어가 실용적인 안전 대책을 내놓는 것을 보면서 분위기가 반전됐고, AI를 더 광범위하게 적용해달라는 요청도 들어온다”고 전했다.

최근 산업 현장에서는 AI와 로봇을 안전관리에 활용하려는 움직임이 확산하고 있다. 사람이 놓치기 쉬운 위험을 사전에 감지하거나 접근이 어려운 공간을 대신 점검하는 산재 예방 수단으로 주목받고 있는 것이다.

특히 산업재해 사고가 많은 제조·건설업 분야에서는 AI 딥러닝 기반의 지능형 폐쇄회로TV(CCTV) 보급이 활발하다. AI CCTV는 안전모 미착용, 작업자 쓰러짐, 화재·연기와 같은 주요 위험 요소를 자동탐지해 기존 인간 중심의 모니터링 한계를 보완할 수 있다.

숭실대 연구팀의 최근 연구는 AI 도입의 산재 예방 효과를 뒷받침한다. 연구팀이 발간한 ‘발전사 중대재해 예방 AI CCTV 효과 분석’에 따르면 딥러닝 기반 AI CCTV를 도입한 발전사·공공기관의 안전모 미착용 탐지율은 도입 이전인 2022년 23.78%에서 도입 이후인 2023~2025년 97.56%까지 높아졌다. 작업자 쓰러짐 탐지율 역시 37.79%에서 87.79%까지 향상됐다. 발전사 86곳과 공공기관 40곳의 안전사고 데이터와 28만장의 AI CCTV 성능데이터를 분석한 결과다.

순찰과 안전 모니터링에 특화된 로봇 개발도 한창이다.

한국서부발전은 지난달 지능형 자율점검 4족 보행 로봇을 한국형 가스터빈이 설치된 김포발전본부의 발전설비 감시 업무에 투입했다. 민간에서는 SK하이닉스가 고위험공정 내에 보행 로봇을 투입해 무인 순찰 체계를 구축해 운영하고 있다.

다만 기술 개발 초기 단계인 만큼 한계도 분명하다. 개인 정보 침해와 과도한 기술 의존, 데이터 보호 문제는 풀어야 할 과제로 꼽힌다.

최진일 충남노동건강인권센터 대표는 “산재예방을 위한 AI·로봇은 작업자의 개인 정보를 침해하지 않는 선에서 설계돼야 하는데, 지금은 굳이 필요하지 않은 정보까지 수집하는 시스템”이라며 “작업자 안전을 명목으로 도입된 AI가 노동자들의 일거수일투족을 감시하는 도구로 작동할 수 있다”고 우려했다. 이어 “순찰 로봇이나 AI가 분석하는 센서 데이터가 얼마나 검증된 것인지 판단할 기술 표준이 없다. 지금까지는 전자기기로써 정상 작동하는지 보는 수준에 가깝다”며 “이를 실제 안전관리에 적용하려면 훨씬 더 엄격한 기준과 신뢰성 확보가 필요하다”고 제언했다.