-
2026.0320
[학사] 2025학년도 후기(2026년 8월) 예비졸업사정 시행 안내
-
2026.0305
[학사] 26-1학기 학점포기 신청 안내 (신청 기간: 03/17 09:30 - 03/23 17:00)
-
2026.0304
[학사] 계열별 교차 전공교과목 성적평가 선택제 신청기간 안내 (신청 기간: 03/24 09:30 - 03/30 17:00)
-
2026.0209
[학사] 26-1학기 분할납부 안내 (신청 기간: 02/13 09:30 - 02/20 17:00)
-
2026.0209
[학사] 26-1학기 수업연한초과자(졸업유예) 등록 안내 (등록 기간: 03/11 09:30 - 03/16 17:00)
-
2026.0209
[학사] 26-1학기 재학생(복학생) 등록 안내 (본등록기간: 02/13 09:30 - 02/24 17:00 | 추가등록기간: 03/03 09:30 - 03/06 17:00)
-
2026.0205
[학사] 26-1학기 편입학자 학점인정 신청 안내 (신청 기간: 02/25 - 03/03)
-
2026.0202
[장학] 26-1학기 다우기술 SW 장학생 모집 안내 (대상: 26-1학기 기준 2, 3학년 재학생 | 모집 기한: - 02/06 10시)
-
2026.0116
[학사] 2025학년도 전기(2026년 2월) 졸업사정 실시 안내 (졸업사정 기간: 01/19 - 02/04)
-
2026.0115
[학사] 26-1학기 휴학 신청 안내 (신청 기간: 02/02 09:00 - 02/12 23:59)
-
2026.0114
[학사] 26-1학기 수강신청 사전테스트 실시 안내 (01/20 - 01/22)
26-1학기 수강신청 사전테스트를 실시하오니 아래의 일자를 확인하여 학생들의 많은 참여 부탁드리며, 오류사항이 발생하는 경우 아래 구분에 따라 학사지원팀, 행정실로 문의해주시기 바랍니다. 의견접수 부서 안내 - 시스템 오류사항, 수강허용학점 : 학사지원팀 031-201-3038~3044 / khwa5032@khu.ac.kr - 가진급 학년, 강좌 개설 관련사항 : 컴퓨터공학부 행정실 031-201-3722(컴공), 2516(인지) / comeng@khu.ac.kr(컴공), ai@khu.ac.kr(인지) -
2026.0112
[학사] 2025학년도 전기(2026.02월) 학사학위취득유예제도 시행 안내 (신청 기간: 01/19 - 01/23)
-
2026.0319
[안내] 2026 외국인 유학생 필수 법정교육 이수 안내
-
2026.0318
[안내] 26-1학기 진로상담교수제[담임교수상담(CCP)] 운영 시행 안내
-
2026.0318
[안내] 보안 패치 작업으로 인한 정보서비스 및 국제캠퍼스 네트워크 중지 안내 (03/21(토) 22시 - 03/22(일) 06시)
보안 패치 작업으로 인해 아래와 같이 정보서비스 중지를 사전안내 드리오니, 업무에 다소 불편함이 있더라도 양해바라며 구성원 여러분의 이해와 적극적인 협조를 부탁드립니다. 가. 중지일시: 2026.03.21(토) 22:00 ~ 22(일) 06:00 [8시간] 나. 중지대상 구분 서울캠퍼스 국제캠퍼스 네트워크 정상 제공됨 전체 중지 정보서비스 * 정보서비스 전체 중지(※이메일 제외) * 정보서비스: 인포21, 포털, 전자결재, 알라딘, 증명발급 등 인포21 ID/PW로 로그인하는 교내 서비스 다. 작업내용: 보안 패치 작업 수행 라. 기타사항: 작업 경과에 따라 정보서비스의 중지 시간이 단축될 수 있음 마. 위 서비스 중지와 관련된 문의사항은 정보처(031-201-3171, it@khu.ac.kr)로 문의 -
2026.0312
[공지] 26-1학기 캡스톤디자인 학생지원사업 공고문
-
2026.0312
[★공지필독] 26-1학기 온라인 안전교육 실시 안내 (05/31까지 필수 이수)
26-1학기 온라인 안전교육을 실시하오니, 실기/실습/설계를 포함한 전공 과목을 수강하는 재학생과 연구실에 소속되어있는 모든 학생께서는 기한 내에 필히 이수 바랍니다. 기한 마감 후 미이수자는 담당교원의 날인이 포함된 사유서를 제출해야합니다. *2026학번 신입생은 이번 온라인 안전교육 비대상입니다. (오프라인 안전교육 대상, 추후 안내 예정) 항목 세부내용 1. 교육대상 • 교육대상 ① 이수구분 "전공기초·선택·필수" 이면서 수업구분이 설계·실습·실기인 강의를 수강하는 모든 학부생·대학원생 ② 연구실에 출입하여 연구활동·과제(논문작성 포함)에 참여하는 모든 연구활동종사자 ※ 모든 연구활동종사자란 교원, 학부생, 대학원생, 수료생, 연구원, 직원 등을 말함 • 비고 ① 26년도 학부·대학원 신입생은 신규교육(오프라인) 대상자로서 1학기 온라인 교육 해당 없음 ② 본 안전교육은 지난 학년도 안전교육 이수 여부와 관계 없이 매년 매학기 필수 수강 ③ PC실습, 신체활동이 포함된 강의를 수강하는 자도 교육 필수 대상임 ④ 학번과 사번을 모두 가지고 있는 자(조교 등)는 학번 아이디로 수강할 것 2. 홈페이지 • https://safety.khu.ac.kr/ ① 링크 접속 후, 반드시 국제캠퍼스 배너를 통해 로그인할 것 ② 링크 입력, 복사 실수가 자주 발생하고 있으므로 주의 요함 3. 교육기간 • 2026. 03. 10. ~ 2026. 5. 31. (안전교육 일정 상 1-2회 연장하여 운영할 수 있음) ★ 로그인 오류 (필독) • 수료생 및 연구원은 기존의 학번 아이디(학부 또는 대학원)로 로그인 불가 ① "[붙임3] 사용자 등록"을 참고하여 시스템 내에서 자체 회원가입할 것 ② 지난 학기에 학적 상태가 수료로 변동된 경우, 기존의 학번 아이디가 삭제됨 • 원소속이 문과계열 학과인 경우 (이공계열학과 복수전공, 부전공 또는 실험과목 수강) ① 안전팀 메일'khwa0119@khu.ac.kr'로 '대상자 등록(학과/학번 필수 기재)' 요청 ② 미회신 시, 교육 목록에 1학기 정기교육 과정이 나타나지 않음 • If you're unable to log in with your existing student ID students who have completed all regular courses but haven't graduate, or researchers, can't log in to the system. Please refer to "[Attachment 3] User Registration". • For any inquiries, please contact 'khwa0119@khu.ac.kr' ※ Make sure to include your student ID, major, and name in your inquiry -
2026.0306
[홍보] 경희대학교 학생만족도 향상을 위한 FGI(Focus Group Interview) 참여자 모집 안내
경희대학교 학생 만족도 향상을 위해 FGI(Focus Group Interview) 참여 학생을 아래와 같이 모집합니다. 재학생들의 만족도 향상을 위해 제안을 하고 싶은 학생, 대학의 제도 개선을 위한 아이디어가 있는 학생 여러분들의 많은 참여 바랍니다. 제안해 주신 내용은 학교 발전에 큰 도움이 될 것입니다. (참여 학생에게 소정의 참여비 지급 예정) ■ FGI (Focus Group Interview) 시행(안) 1. FGI란? - 특정한 경험을 공유한 사람들이 함께 모여 인터뷰를 진행하는 조사방법으로, 본 조사는 경희대학교 학생들의 만족도를 올릴 수 있는 요인과 사업에 대한 탐색을 목적으로 합니다. 2. 일시 : 2026.03.16(월) ~ 2026.03.20(금) 3. 장소 : 서울/국제 캠퍼스에서 각각 실시 (계열별 7개 그룹, 1그룹 최대 10명으로 구성) 4. 진행 방식 : FGI 학생 참여자에게 진행자가 질문하면 자유롭게 자신의 경험, 생각 등을 말하는 자유토론 형식 5. 주제 : 교과과정, 교육시설, 국제교류 및 취업 프로그램, 학생지원 프로그램 등 6. 후속조치 - 학생만족도 향상을 위한 제도에 반영 - 담당 부서에 제안내용 전달하여 개선/보완 7. 진행일정 기간 내용 2026.02.23 (월) ~ 03.06 (금) FGI 참여 신청 2026.03.09 (월) ~ 03.11 (수) FGI 참여자 확정 (3.12 (목) 개별 발표 예정) 2026.03.16 (월) ~ 03.20 (금) FGI 실시 (각 캠퍼스에서 실행) 8. 시행사항 캠퍼스 구분 인원 일정 장소 비고 서울 1그룹 호텔관광대학, 음악대학, 미술대학, 무용학부 그룹당 최대 10명 3월 16일 (월) 15:00 ~ 17:00 본관(서울C) 자세한 장소 및 세부사항은 추후 안내 예정, 주전공소속으로 신청 요망. 2그룹 문과대학, 정경대학, 경영대학 3월 17일 (화) 15:00 ~ 17:00 본관(서울C) 3그룹 이과대학, 생활과학대학, 자율전공학부 3월 18일 (수) 13:00 ~ 15:00 본관(서울C) 4그룹 의과대학, 한의과대학, 치과대학, 약학대학, 간호과학대학 3월 18일 (수) 15:30 ~ 17:30 본관(서울C) 국제 5그룹 국제대학, 공과대학, 자유전공학부 3월 19일 (목) 13:00 ~ 15:00 중앙도서관(국제C) 6그룹 전자정보대학, 소프트웨어융합대학, 응용과학대학, 생명과학대학 3월 19일 (목) 15:30 ~ 17:30 중앙도서관(국제C) 7그룹 외국어대학, 체육대학, 예술·디자인대학 3월 20일 (금) 15:00 ~ 17:00 중앙도서관(국제C) ■ 선발기준 - 경희대학교 학부 2~4학년 재학생(의학계열의 경우, 예과 2학년 ~ 본과 2학년) - 교내 다양한 교육 및 행정 서비스를 경험한 학생 (복수전공, 국제교류 및 취업 프로그램, 학생 지원 프로그램 등, 1가지만 참여했어도 지원 가능하지만 신청인원이 많은 경우 많이 참여한 학생 우선순위) - 지원자 계열/성별/참여 가능시간 등을 고려하여 선발 (선발결과 개별 안내) ※ 참여학생에게 수업협조전 발급(출석인정여부는 담당교수의 재량이므로 사전 확인 필수) ※ 참여하는 학생에게 소정의 참여비 지급 (2시간 정도 소요예정) ■ 참여혜택 : 참여비 5만원 지급 ■ 문의처 : 02-961-0161 (기획조정처 IR&A센터) ■ 참여신청 : 구글폼 응답을 통한 신청 (링크 : https://forms.gle/7S2LF5WqnQPUZgfi6 ) -
2026.0305
[홍보] 대외협력처 서포터즈 쿠밀리(KHUmily) 11기 모집 안내 (접수 기간: 03/03 - 03/11)
-
2026.0227
[안내] 26-1학기 차량운행(셔틀버스) 및 업체 변경 안내
2026학년도 1학기 차량운행(셔틀버스) 일정 및 업체 변경 관련 사항을 다음과 같이 안내드리오니, 이용에 착오 없으시길 바랍니다. 가. 운행기간 : 2026.03.03.(화) ~ 06.22.(월) 나. 운행안내 1) 교직원 버스 노선 : 서울캠퍼스 ↔ 국제캠퍼스 노선 : 영통역 ↔ 국제캠퍼스 출근(청운관) 07:10 → 07:00 출근(영통역 1번 출구) 08:30 퇴근(사색의 광장) 17:40 퇴근(사색의 광장) 17:40 ※ 교직원 출근버스 출발시간 조정됨에 따라 변경된 운행시간표 확인必 2) 캠퍼스간 셔틀버스(국제캠퍼스 ↔ 서울캠퍼스) 국제캠퍼스 출발 서울캠퍼스 출발 사색의 광장 07:10(07:00), 10:00, 11:55 13:30, 16:40, 18:00 온실 앞 07:20, 10:00, 13:30 15:10, 16:40, 18:00 ※페이코 모바일 승차권 사전 예약 필수 (요금 : 2,000원) 노선별로 1인당 최대 2매까지 구매 가능 * 매주 월요일 국제캠퍼스 출발 셔틀버스는 교통정체를 피하기 위해 07:00에 출발함 (화, 수, 목, 금요일 07:10 출발) * 국제캠퍼스 출발(18:00)은 교통상황에 따라 2시간 이상 소요될 수 있음 3) 통학버스 (영통역 → 국제캠퍼스) 영통역 출발 영통역 1번 출구 08:40, 10:00, 11:30 ,13:00 운임 없음 다. 캠퍼스간 셔틀버스(국제캠퍼스 ↔ 서울캠퍼스) 모바일 승차권 이용 안내 1) 결제 방식 : 페이코(Payco) 모바일 앱 설치 후 사전 구매 2) 이용일 7일전부터 예약가능 [예 :다음주 월요일 셔틀버스 → 전(前)주 월요일 00:00부터 예약] 라. 버스 업체 변경 관련 사항 1) 신규 버스 업체명 : 서울고려관광 2) 신규 버스 이미지 (탑승에 참고 요망. 차량 제조사는 달라질 수 있음.) 3) 경희대학교 셔틀버스 전용 페이지 변경 ▪ 셔틀버스 전용 페이지가 변경됨. 문의사항, 노선도, 분실물, 지연운행 확인서 등 관련 문의 아래 페이지를 이용 요망. ▪ 링크 : https://sites.google.com/view/koreabus1/%ED%99%88 4) 교직원 출근 버스 위치 확인 링크 변경 ▪ 교직원 출근 버스 위치 확인 링크가 변경됨. 아래 링크를 통해 확인 요망. (기존 컴온버스 앱은 사용하지 않으며, 신규 링크는 별도의 앱 설치가 없음) ▪ 링크 : https://khu.busro.net:456/rsvc/busLocList.html 5) 교직원 통근버스 내 Wi-Fi 서비스 제공 시작 붙 임 : 1. 차량운행시간표(2026-1학기) 1부. 2. 경희대학교(국제)_승차권가이드(국문) 1부. 3. 경희대학교(국제)_승차권가이드(영문) 1부. -
2026.0227
[안내] 26-1학기 국제캠퍼스 학생회관 식당 운영 안내
26-1학기 국제캠퍼스 학생회관 식당(교직원, 학생) 운영 관련하여 아래와 같이 안내드립니다. 가. 2026-1학기 운영기간 : 2026.03.03.(화) ~ 06.22.(월) 나. 운영시간 구 분 교직원식당 학생식당 운영시간 중식 11:00 ~ 14:00 석식 17:00 ~ 18:30 조식 08:20 ~ 10:00 중식 11:00 ~ 14:00 석식 17:00 ~ 18:30 다. 직전학기 대비 변경사항 1) 학생식당 조식 운영시간 10분 조기 개시 2) 식단가는 기본적으로 직전학기 가격 유지. 단, 교직원식당 및 학생식당(우아하게 코너) 중식에 한하여 메인 메뉴 구성 변경 혹은 특식 제공 시 요금 인상 가능 ※ 교직원식당: 500원 이내 (2주 1회 예상) ※ 학생식당(우아하게 코너): 특식 제공 시 300원 이내 라. 비고 - 학생회관 식당 영양사실 전화번호 ☎ 031-201-5970. 끝. -
2026.0226
[안내] 경희대학교 생성형 AI 플랫폼 ChatKHU(챗쿠) 정식 오픈 안내
-
2026.0226
[홍보] 2026학년도 1차 국제교육원 외국어강좌 안내 (등록 기간: 02/23 - 03/04)
-
2026.0225
[안내] 2026학년도 신입생 입학식 관련 캠퍼스간 셔틀버스(설국버스) 승하차 장소 임시변경 안내 (02/27)
2026학년도 신입생 입학식 개최에 따라 캠퍼스간 셔틀버스(설국버스) 승하차장소를 임시 변경하여 운영하오니 이용에 착오 없으시길 바랍니다. 일 시 : 2026.02.27(금) 13:30, 15:00 / ※당일에 한함 내 용 : 서울캠퍼스 출발 승하차 위치 변경 사 유 : 입학식 당일 온실 앞 차량 출입 통제 변경 전 : 온실 앞 변경 후 : 청운관 앞
-
2026.0323
[추천채용] 서한그룹 신입 및 경력 공채 추천채용 안내 (접수 기한: - 03/30 23:59까지)
1. 제출방법 ① 채용 홈페이지를 통해 입사지원서 제출 ▶ https://seohan.recruiter.co.kr/career/job ② 추천채용 서류 미래인재센터 이메일 제출 ▶ work_register@khu.ac.kr - 채용 홈페이지 내 접수한 내용과 동일한 입사지원서 - 추천채용 지원자 명단(첨부양식) *메일제목 및 파일명 : 기업명_지원분야_이름 2. 추천채용 인원 : 직무당 2명 제한 ※ 2026년 서한그룹 공채 접수 기간 : 2026. 3. 17~30 ※ 공채 홍보 메인 영상 링크 :https://www.youtube.com/watch?v=fQE0EmMsqcs ※ 서한그룹 유튜브 채널 :https://www.youtube.com/@seohangroup -
2026.0323
[미래인재센터] LinkedIn 프로필 & 네트워킹 전략 특강 참여자 모집 안내 (03/30 16시, 중앙도서관 3층 피스홀)
-
2026.0318
[미래인재센터] 2026학년도 상반기 대기업 지원 자기소개서 집중 컨설팅 캠프 참여자 모집 안내 (접수 기한: - 03/19 15시)
-
2026.0318
[미래인재센터] 26-1학기 대기업 및 공기업 직무적성검사 통합 특강 프로그램 참여자 모집 안내 (접수 기한: - 03/26 13시)
-
2026.0318
[미래인재센터] 2026년 3-4월 오픈랩 메이커 디지털 제작 장비 활용 교육 프로그램 참여자 모집 안내 (접수 기한: - 04/20)
-
2026.0318
[미래인재센터] 26-1학기 국제캠퍼스 통합고시반 입반생 선발 안내 (접수 기한: - 03/26 17시)
-
2026.0310
[미래인재센터] 삼성전자 메모리사업부 캠퍼스 리크루팅 안내 (03/12 10시 중앙도서관 3층 르네상스홀)
- 행사명: 삼성전자 메모리사업부 캠퍼스 리크루팅 - 채용설명회: 3/12(목) 10:00~11:30 중앙도서관 3층 르네상스홀 - 채용 상담: 3/12(목) 13:00~16:00 중앙도서관 1층 로비 * 채용설명회 사전등록자 중 추첨을 통해 선물 증정 예정 - 사전등록 신청 링크 : https://answer.moaform.com/answers/MryNQg -
2026.0114
[미래인재센터] 2026년 경기청년 해외진출 사업 '일본 해외취업 참여자 1기' 모집 안내
-
2026.0114
[미래인재센터] 국가정보원 2026년 상반기 정기공채 채용설명회(경희대) 진행 안내 (01/23 10시, 삼성역 인근 인재개발센터)
국가정보원 인재개발센터에서 2026년 상반기 정기공채 관련 채용설명회를 진행할 예정입니다. 모집 대상은 소속 캠퍼스 및 전공 무관 경희대학생 30명입니다. 현재 진행중인 모집은 1월 20일 화요일에 마감되며, 신청자 중 졸업 예정 및 기졸업자를 우선 선발할 예정입니다. 1. 국가정보원 2026 상반기 정기공채 채용설명회(경희대) 개요 1) 신청 기간 : 2025.12.17.(수) ~ 2026.01.20.(화) 12시까지 https://forms.gle/KGZXA8c7d8NmEQhk9 2) 신청 대상 : 경희대학교 학생 30명 (선착순 접수) *서울/국제 캠퍼스 모두 참여 가능 **졸업 예정 및 기졸업자 우선 선발 3) 설명회 일정 : 2026.01.23.(금) 10:00 ~ 11:00 4) 진행 장소 : 삼성역 인근 인재개발센터 *2026.01.21.(수), 확정 참여자 대상 개별 연락 예정 **개별 안내 받은 학생들은 지정된 시간까지 해당 장소에 개별적으로 집결 ※문의 : 미래인재센터 서울캠퍼스 02-961-0167~8 / job@khu.ac.kr -
2026.0114
[홍보] 매경미디어 x 앤스로픽 <'News to Action' AI 해커톤> 참가팀 모집 안내 (1월 초 - 참가자 선발 완료 시 까지)
-
2026.0113
[홍보] 두산로보틱스 AI・로봇 엔지니어 양성과정(초급) 8기 모집 안내
-
2026.0108
[추천채용] 2026년도 전국 지역인재 7급 수습직원 선발시험 교내추천자 선발 안내
2026년도 전국 지역인재 7급 수습직원 선발시험 안내 및 교내추천자 선발을 아래와 같이 공고하오니, 해당 자격요건을 갖춘 본교 졸업자 및 졸업예정자의 많은 관심과 지원 바랍니다.
-
2026.0318
[동문소식] 컴퓨터공학과 권우원 박사 글로벌 반도체 선도기업 Qualcomm 채용 확정
-
2025.1111
배성호 교수 연구실 (Efficient Neural Computing Lab, ENC Lab), 인공지능 분야 최상위 학회 AAAI 2026에 2편 논문 게재 승인
경희대학교 컴퓨터공학과 배성호 교수 연구실(Efficient Neural Computing Lab, ENC Lab)의 연구 성과 2편이 인공지능 분야 최상위 국제 학회인 AAAI 2026에 게재 승인되었습니다. 이번 AAAI 2026에는 전 세계적으로 총 23,680편의 논문이 심사(review)를 받았으며, 이 중 4,167편이 최종 채택(accept)되어 전체 채택률은 17.6%이었습니다. ENC Lab은 인공지능 모델과 데이터의 효율적 표현 및 학습을 위한 첨단 연구를 지속적으로 수행하고 있으며, 이번 AAAI 2026에서의 논문은, 저비트 양자화 기반 데이터 응축(PostQ-DC)과 반복적 고주파 복원(I-INR)이라는 두 가지 혁신적 접근을 통해 인공지능의 저비용·고효율 학습을 위한 새로운 방법론적 패러다임을 제시하였습니다. 이는 배성호 교수 연구실이 주도하는 AI 모델 경량화 및 데이터 효율 학습 연구가 세계적으로 높은 수준의 경쟁력을 갖추고 있음을 보여주었습니다. 그중 첫 번째 논문인 "Post-Training Quantization for Efficient Dataset Condensation"은 oral 세션(구두 발표)로 선정되었으며, Dataset Condensation(DC) 분야에서 **Post-Training Quantization(PTQ)**을 최초로 적용한 연구입니다. 본 논문에서는 기존 DC 기법들이 간과해 온 저장 효율성(storage efficiency)의 한계를 극복하기 위해, **패치 기반 비대칭 양자화(patch-based asymmetric quantization)**와 양자화 파라미터 군집화(clustering) 전략, 그리고 정제(refinement) 모듈을 도입하였습니다. 이를 통해 합성 데이터의 표현 품질을 유지하면서도 2비트(2-bit) 수준의 초저비트 데이터 압축을 달성하였으며, 특히 극단적인 압축 환경(IPC=1)에서도 기존 방법 대비 두 배 이상(26.0% → 54.1%)의 정확도 향상을 보였습니다. 본 연구는 데이터 효율적 학습(data-efficient learning)과 모델 경량화(model compression)의 융합을 실현한 혁신적 접근으로 평가받았습니다. 두 번째 논문인 "I-INR: Iterative Implicit Neural Representations"**은 Implicit Neural Representation(INR)의 주파수 편향(spectral bias) 문제를 해결하기 위한 반복적 재구성(iterative refinement) 프레임워크를 제안하였습니다. 기존 INR이 고주파 정보를 충분히 복원하지 못하고 잡음에 취약하다는 한계를 개선하기 위해, 본 연구는 FeedbackNet과 FuseNet이라는 두 개의 경량 모듈을 도입하여 반복 단계마다 세밀한 고주파 정보를 점진적으로 복원하는 방식을 제안하였습니다. 그 결과, 기존 방법대비 최대 +2.0dB PSNR 향상을 달성하였으며, 이미지 복원(image fitting), 초해상도(super-resolution), 노이즈 제거(denoising), 3D 점유 예측(occupancy reconstruction) 등 다양한 시각 신호 처리 과제에서 탁월한 성능을 입증하였습니다. -
2025.1103
최진우 교수 연구실 (Vision and Learning Lab), TPAMI(IF 18.6, JCR Top 1.1%)에 멀티모달 학습 논문 게재 승인
최진우 교수 연구실(Vision and Learning Lab)의 컴퓨터공학과 석사과정 이종서와 장주현이 공동1저자로 작성한 논문이 컴퓨터 비전, 기계학습 및 인공지능 분야에서 세계 최고 권위를 자랑하는 저널인 IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI, Impact Factor 18.6, JCR 상위 1.1%) 에 게재가 승인 되었습니다. 본 논문은 Audio, Space, Time 세 가지 맥락에서의 전문가 간 정보 교환을 통해, 효율적이고 통합적인 video multi-modal learning을 가능하게 하는 프레임워크를 제안합니다. [논문정보] Title: CA2ST: Cross-Attention in Audio, Space, and Time for Holistic Video Recognition Authors: Jongseo Lee*, Joohyun Chang*, Dongho Lee, Jinwoo Choi† (* 교신 저자) Venue: IEEE Transactions on Pattern Analysis and Machine Intelligence TL; DR We propose Cross-Attention in Audio, Space, and Time (CA2ST), a transformer-based method for holistic video recognition. Abstract We propose Cross-Attention in Audio, Space, and Time (CA2ST), a transformer-based method for holistic video recognition. Recognizing actions in videos requires both spatial and temporal understanding, yet most existing models lack a balanced spatio-temporal understanding of videos. To address this, we propose a novel two-stream architecture, called Cross-Attention in Space and Time (CAST), using only RGB input. In each layer of CAST, Bottleneck Cross-Attention (B-CA) enables spatial and temporal experts to exchange information and make synergistic predictions. For holistic video understanding, we extend CAST by integrating an audio expert, forming Cross-Attention in Visual and Audio (CAVA). We validate the CAST on benchmarks with different characteristics, EPIC-KITCHENS-100, Something-Something-V2, Kinetics-400, ActivityNet, and HD-EPIC to show balanced performance. We also validate the CAVA on audio-visual action recognition benchmarks, including UCF-101, VGG-Sound, KineticsSound, EPIC-SOUNDS, and HD-EPIC-SOUNDS. CAVA shows favorable performance on these datasets, demonstrating the effective information exchange among multiple experts within the B-CA module. In addition, CA2ST combines CAST and CAVA by employing spatial, temporal, and audio experts through cross-attention, achieving balanced and holistic video understanding. -
2025.0923
최진우 교수 연구실 (Vision and Learning Lab), NeurIPS 2025에 비디오 설명가능 인공지능 Spotlight 논문 accept
최진우 교수 연구실 (Vision and Learning Lab)의 컴퓨터공학과 석사과정 이종서와 학부 연구생 이우일이 작성한 논문이 Machine learning 분야 세계 최고 권위의 학술대회인 Neural Information Systems Processing (NeurIPS) 2025에 Spotlight으로 선정되었습니다. 이는 경희대 최초의 Machine learning 분야 Top Conference (NeurIPS, ICML, ICLR) Spotlight 논문 선정 사례입니다. 본 논문은 2025년 12월 미국 샌디에이고에서 발표할 예정입니다. [논문정보] Title: Disentangled Concepts Speak Louder Than Words: Explainable Video Action Recognition Authors: Jongseo Lee, Wooil Lee, Gyeong-Moon Park*, Seong Tae Kim* and Jinwoo Choi* (* 교신 저자) Venue: Neural Information Systems Processing (NeurIPS) 2025 TL; DR We propose DANCE, a framework that explains video action recognition models in a structured, motion-aware manner by disentangling concept types into motion dynamics, objects, and scenes. Abstract Effective explanations of video action recognition models should disentangle how movements unfold over time from the surrounding spatial context. However, existing methods—based on saliency—produce entangled explanations, making it unclear whether predictions rely on motion or spatial context. Language-based approaches offer structure but often fail to explain motions due to their tacit nature—intuitively understood but difficult to verbalize. To address these challenges, we propose Disentangled Action aNd Context concept-based Explainable (DANCE) video action recognition, a framework that predicts actions through disentangled concept types: motion dynamics, objects, and scenes. We define motion dynamics concepts as human pose sequences. We employ a large language model to automatically extract object and scene concepts. Built on an ante-hoc concept bottleneck design, DANCE enforces prediction through these concepts. Experiments on four datasets—KTH, Penn Action, HAA500, and UCF-101—demonstrate that DANCE significantly improves explanation clarity with competitive performance. We validate the superior interpretability of DANCE through a user study. Experimental results also show that DANCE is beneficial for model debugging, editing, and failure analysis. -
2025.0724
최진우 교수 연구실 (Vision and Learning Lab), ICCV 2025에 비디오 연속학습 관련 논문 Highlight Presentation
최진우 교수 연구실 (Vision and Learning Lab)의 컴퓨터공학과 석사과정 이종서와 석사 졸업생 배경호가 작성한 논문이 Computer Vision 분야 세계 최고 권위의 학술대회인 IEEE/CVF International Conference on Computer Vision (ICCV) 2025 에 Highlight으로 선정되었습니다. 본 논문은 2025년 10월 미국 하와이에서 발표할 예정입니다. [논문 정보] Title: ESSENTIAL: Episodic and Semantic Memory Integration for Video Class-Incremental Learning Authors: Jongseo Lee†, Kyungho Bae†, Kyle Min, Gyeong-Moon Park*, Jinwoo Choi* (†: 공동 제1저자, *: 교신 저자) Venue: IEEE/CVF International Conference on Computer Vision (ICCV) TL;DR We integrate episodic and semantic memory to address the trade-off between memory efficiency and performance in video class-incremental learning. Abstract In this work, we tackle the problem of video class-incremental learning (VCIL). Many existing VCIL methods mitigate catastrophic forgetting by rehearsal training with a few temporally dense samples stored in episodic memory, which is memory-inefficient. Alternatively, some methods store temporally sparse samples, sacrificing essential temporal information and thereby resulting in inferior performance. To address this trade-off between memory-efficiency and performance, we propose EpiSodic and SEmaNTIc memory integrAtion for video class-incremental Learning (ESSENTIAL). We are inspired by the human memory system, which integrates episodic and semantic memory for accurate information retrieval. In human cognition, memory retrieval involves not only episodic memory but also other complementary components such as semantic memory. Inspired by this, ESSENTIAL consists of episodic memory for storing temporally sparse features and semantic memory for storing general knowledge represented by learnable prompts. We introduce a novel memory retrieval (MR) module that integrates episodic memory and semantic prompts through cross-attention, enabling the retrieval of temporally dense features from temporally sparse features. We rigorously validate ESSENTIAL on diverse datasets: UCF-101, HMDB51, and Something-Something-V2 from the TCD benchmark and UCF-101, ActivityNet, and Kinetics-400 from the vCLIMB benchmark. Remarkably, with significantly reduced memory, ESSENTIAL achieves favorable performance on the benchmarks. -
2025.0711
김휘용, 배성호, 최진우, 고종환 교수 연구팀 2025년도 글로벌 기초연구실 지원사업 (BRL) 과제 선정
경희대학교 컴퓨터공학부 김휘용 교수 연구팀(공동연구진: 배성호 교수, 최진우 교수, 성균관대학교 고종환 교수)이 ‘인간과 기계 시각을 동시에 지원하는 다목적 시각정보 압축 연구’로 과학기술정보통신부와 한국연구재단이 주관하는 '2025년도 글로벌 기초연구실 지원사업(BRL, Basic Research Laboratory)' 과제 ICT/융합 (심화형) 분야에 선정되었습니다(지원규모: 2025년 6월부터 3년, 15억). 이미지와 비디오와 같은 시각정보는 인간이 콘텐츠로 소비하거나 기계(인공지능)가 추론을 위해 소비하는 등 그 활용범위가 점점 증가하고 있으나, 시각정보의 특성상 데이터량이 방대하여 효과적인 압축 기술이 반드시 필요한 분야입니다. 그러나 기존의 시각정보 압축 연구는 인간시각과 기계시각 각각만을 위해 최적화되거나 다양한 센서로부터 획득된 이종 시각정보를 처리하는 데 한계를 가집니다. 연구팀은 이러한 문제를 해결하기 위한 신경망 기반의 통합 프레임워크를 제안하였으며, 향후 3년간 다양한 시각정보(가시광, 초분광, SAR 등)와 다양한 목적(인간시각과 기계분석)을 동시에 지원하기 위한 원천기술 확보 및 국제 표준화를 추진할 예정입니다. 연구팀은 또한 중국 저장 대학교(ZJU)의 Lu Yu 교수팀, 미국 샌디에고 대학교(UCSD)의 Hao Su 교수팀, 캐나다 사이먼 프레이저 대학교(SFU)의 Ivan V. Bajić 교수팀, 오스트리아 클라겐푸르트 대학교의 Hadi Amirpour 교수팀, Intel Labs의 Kyle Min 박사팀과의 공동연구 MoU 체결을 완료하는 등, 활발한 국제 협력을 통해 글로벌 기술 선도 및 국제표준화에 박차를 기할 예정입니다. -
2025.0407
최진우 교수 연구실 (Vision and Learning Lab), CVPR 2025에 Video LLM 관련 논문 Highlight Presentation
최진우 교수 연구실 (Vision and Learning Lab)의 컴퓨터공학과 석사 졸업생 배경호가 LG AI Research에 인턴으로 근무하며 작성한 논문이 Computer Vision 분야 세계 최고 권위의 학술대회인 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2025 에 Highlight으로 선정되었습니다. 본 논문은 2025년 여름 미국 내슈빌에서 발표할 예정입니다. [논문 정보] Title: MASH-VLM: Mitigating Action-Scene Hallucination in Video-LLMs through Disentangled Spatial-Temporal Representations Authors: Kyungho Bae, Jinhyung Kim, Sihaeng Lee, Soonyoung Lee, Gunhee Lee*, Jinwoo Choi* (*: 교신 저자) Venue: IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2025 TL;DR To mitigate action-scene hallucination in Video-LLMs, we propose a disentangled spatio-temporal representation learning method. Abstract In this work, we tackle action-scene hallucination in Video Large Language Models (Video-LLMs), where models incorrectly predict actions based on the scene context or scenes based on observed actions. We observe that existing Video-LLMs often suffer from action-scene hallucination due to two main factors. First, existing Video-LLMs intermingle spatial and temporal features by applying an attention operation across all tokens. Second, they use the standard Rotary Position Embedding (RoPE), which causes the text tokens to overemphasize certain types of tokens depending on their sequential orders. To address these issues, we introduce MASH-VLM, Mitigating Action-Scene Hallucination in Video-LLMs through disentangled spatial-temporal representations. Our approach includes two key innovations: (1) DST-attention, a novel attention mechanism that disentangles the spatial and temporal tokens within the LLM by using masked attention to restrict direct interactions between the spatial and temporal tokens; (2) Harmonic-RoPE, which extends the dimensionality of the positional IDs, allowing the spatial and temporal tokens to maintain balanced positions relative to the text tokens. To evaluate the action-scene hallucination in Video-LLMs, we introduce the UNSCENE benchmark with 1,320 videos and 4,078 QA pairs. Extensive experiments demonstrate that MASH-VLM achieves state-of-the-art results on the UNSCENE benchmark, as well as on existing video understanding benchmarks. arXiv pre-print: https://arxiv.org/abs/2503.15871 -
2024.1104
김성태 교수 연구실(Augmented Intelligence Lab), 국제 의료 AI 경진대회 1위 수상
Augmented Intelligence Lab (지도교수: 김성태)의 박사과정 조은기, 석사과정 김현배, 추오성, 김가영 학생으로 구성된 연구팀이 지난달 열린 의료 컴퓨팅 분야 최고 수준 학회인 MICCAI (International Conference on Medical Image Computing and Computer Assisted Intervention) 2024에서 열린 국제 수술 동영상 분석 경진대회에 참가해 ‘수술도구분할’ 부문 1위를 달성했습니다. MICCAI2024에서 열린 EndoVision 챌린지 내 PhaKIR (Phase, Keypoint and Instrument Recognition) Challenge 는 세 의료기관에서 수집된 수술 동영상을 AI 기반 영상인식 기술로 분석하여 성능을 경쟁하는 챌린지로 연구팀은 Surgical Instrument Instance Segmentation 문제에서 Mask2former 모델이 긴 수술동영상에서 적용될 시 생기는 문제를 효율적으로 해결하여 최종적으로 1위를 차지하였습니다. 수술동영상에서 수술도구를 자동으로 인식하는 기술은 컴퓨터 보조 수술 분야의 핵심기술로써 신뢰가능하고 안전한 로봇/내시경 수술을 위해 여러 방면에서 활용될 수 있는 핵심 기술로써 향후 Augmented Intelligence Lab에서 진행될 수술 인공지능 연구의 중요한 밑거름이 될 것으로 생각됩니다. 한편 Augmented Intelligence Lab은 올해부터 한국연구재단 우수신진연구 과제인 ‘전문가 수준의 수술 비디오 해석을 통해 안전한 수술을 지원하는 설명 가능하고 상호작용이 가능한 인공지능’를 수주해 연구를 진행하고 있으며 MICCAI2024에서는 이외에도 의료 인공지능 모델을 의료 전문가의 의학용어로 진단을 설명하는 “Mask-Free Neuron Concept Annotation for Interpreting Neural Networks in Medical Domain” 연구를 석사과정 김현배, 박사과정 안용현학생이 발표하며 의료/수술 분야 인공지능 개발에서 우수한 연구 성과를 보이고 있습니다. -
2024.0813
최진우 교수 연구실 (Vision and Learning Lab), ECCV 2024 Oral Presentation
최진우 교수 연구실 (Vision and Learning Lab)의 컴퓨터공학과 석사 졸업생 배경호, 석사과정 학생 안지오, KAIST 석사 졸업생 김영래를 포함한 최진우 교수 연구팀의 논문이 Computer Vision 분야 세계 최고 권위의 학술대회인 European Conference on Computer Vision (ECCV) 2024 에 Oral Presentation으로 accept 되었습니다. 이 논문은 경희대 컴퓨터공학부 최초의 Top Computer Vision Conference (CVPR/ICCV/ECCV) Oral Paper 입니다. 논문은 2024년 가을 이탈리아 밀라노에서 발표할 예정입니다. [논문 정보] Title: DEVIAS: Learning Disentangled Video Representations of Action and Scene Authors: Kyungho Bae†, Geo Ahn†, Youngrae Kim†, Jinwoo Choi* (†: 공동 제1저자, *: 교신 저자) Venue: European Conference on Computer Vision (ECCV) 2024 TL;DR We propose a disentangled action and scene representation learning method that can accurately recognize both action and scene in both in-context and out-of-context scenarios. Abstract Video recognition models often learn scene-biased action representation due to the spurious correlation between actions and scenes in the training data. Such models show poor performance when the test data consists of videos with unseen action-scene combinations. Although Scene-debiased action recognition models might address the issue, they often overlook valuable scene information in the data. To address this challenge, we propose to learn Disentangled VIdeo representations of Action and Scene (DEVIAS), for more holistic video understanding. We propose an encoder-decoder architecture to learn disentangled action and scene representations with a single model. The architecture consists of a disentangling encoder (DE), an action mask decoder (AMD), and a prediction head. The key to achieving the disentanglement is employing both DE and AMD during training time. The DE uses the slot attention mechanism to learn disentangled action and scene representations. For further disentanglement, an AMD learns to predict action masks, given an action slot. With the resulting disentangled representations, we can achieve robust performance across diverse scenarios, including both seen and unseen action-scene combinations. We rigorously validate the proposed method on the UCF-101, Kinetics-400, and HVU datasets for the seen, and the SCUBA, HAT, and HVU datasets for unseen action-scene combination scenarios. Furthermore, DEVIAS provides flexibility to adjust the emphasis on action or scene information depending on dataset characteristics for downstream tasks. DEVIAS shows favorable performance in various downstream tasks: Diving48, Something-Something-V2, UCF-101, and ActivityNet. arXiv pre-print: https://arxiv.org/abs/2312.00826 -
2024.0806
박경문 교수 연구실 (Artificial General Intelligence Lab.)ECCV 2024 총 3편 게재 승인
Artificial General Intelligence Lab. (지도교수: 박경문)에서 컴퓨터 비전 분야의 Top-Tier 학술 대회인 European Conference on Computer Vision 2024 (ECCV 2024)에 구두 발표 세션 1편, 포스터 발표 세션 2편으로 총 3편의 논문이 게재 승인되었습니다. 이 중 구두 발표 (oral presentation) 세션의 경우, 경희대학교에서는 처음으로 컴퓨터 비전 분야의 Top-Tier 학술 대회 (CVPR, ECCV, ICCV)에 구두 발표로 승인되었으며, 게재 승인된 논문 중 약 2.3%를 추가로 선별하여 학회 현장에서 발표 기회가 주어집니다. 논문 제목: Towards Model-Agnostic Dataset Condensation by Heterogeneous Models Dataset Condensation은 대량의 데이터셋에서 최대한 학습효과를 유지한 채로 소량의 샘플을 합성하는 기술이다. 기존의 많은 연구들은 매우 작은 크기의 모델에서 적용 및 실험되어왔다. Dataset Condensation은 distribution alignment와 training trajectory tracking의 방법으로 다양하게 연구되었지만, 방법론과 성능은 매우 작은 모델에서만 실험되어 실용적 크기의 모델에서 검증된 바가 없다. 본 논문에서는 실제로 이러한 이미지를 실제 practical-size의 모델에 적용하였을 때 실제로는 randomly selected images 보다 못한 성능을 보이는 것을 발견하였다. 이러한 문제를 over-condensation으로 정의하고 이를 해결하기 위해 이기종의 모델을 도입하여 이들 사이의 Mutual Distillation (MD)을 통해 긴장관계를 유지함으로써 일반적인 특징을 추출하고자 하였다. 이 과정에서 발생하는 dimension의 차이를 메우기 위해 Spatial-Semantic Decomposition (SSD)를, 그래디언트 차이 문제를 해결하기 위해 Gradient Balance Module (GBM)을 적용하였다. 그 결과 기존 방법들과는 달리 ViT-Base와 같은 practical-sized model에서도 학습 가능한 general한 feature가 추출되는 것을 실험적으로 검증하였다. [논문 정보] Towards Model-Agnostic Dataset Condensation by Heterogeneous Models Jun-Yeong Moon, Jung Uk Kim, and Gyeong-Moon Park European Conference on Computer Vision (ECCV), 2024, (Oral Presentation) Abstract: The advancement of deep learning has coincided with the proliferation of both models and available data. The surge in dataset sizes and the subsequent surge in computational requirements have led to the development of the Dataset Condensation (DC). While prior studies have delved into generating synthetic images through methods like distribution alignment and training trajectory tracking for more efficient model training, a significant challenge arises when employing these condensed images practically. Notably, these condensed images tend to be specific to particular models, constraining their versatility and practicality. In response to this limitation, we introduce a novel method, Heterogeneous Model Dataset Condensation (HMDC), designed to produce universally applicable condensed images through cross-model interactions. To address the issues of gradient magnitude difference and semantic distance in models when utilizing heterogeneous models, we propose the Gradient Balance Module (GBM) and Mutual Distillation (MD) with the Spatial-Semantic Decomposition method. By balancing the contribution of each model and maintaining their semantic meaning closely, our approach overcomes the limitations associated with model-specific condensed images and enhances the broader utility. 논문 제목: Online Continuous Generalized Category Discovery "Online Continuous Generalized Category Discovery" 논문은 기존 Continual Generalized Category Discovery의 Offline 학습으로 인해 데이터의 생성과 소멸과 같은 실생활의 데이터의 연속성을 고려하지 못함을 한계로 지적하며, 데이터의 연속성을 고려하는 Online 학습 시나리오를 제안하며, 이를 위한 학습방식인 DEAN을 제시합니다. Category Discovery의 어려움, Pseudo-label을 통한 부정확한 학습, 그리고 연속 학습으로 인한 파괴적 망각현상을 해결하기 위해, Energy-guided Discovery, Variance-based Feature Augmentation, 그리고 Energy-based Contrastive Loss를 제안합니다. 이를 통해 제시된 OCGCD 시나리오에서 기존 CGCD 학습 방식들에 비해 낮은 Forgetting과 뛰어난 Category Grouping Performance를 달성하였습니다. [논문 정보] Online Continuous Generalized Category Discovery Keon-Hee Park, Hakyung Lee, Kyungwoo Song, and Gyeong-Moon Park European Conference on Computer Vision (ECCV), 2024 Abstract: With the advancement of deep neural networks in computer vision, artificial intelligence (AI) is widely employed in real-world applications. However, AI still faces limitations in mimicking high-level human capabilities, such as novel category discovery, for practical use. While some methods utilizing offline continual learning have been proposed for novel category discovery, they neglect the continuity of data streams in real-world settings. In this work, we introduce Online Continuous Generalized Category Discovery (OCGCD), which considers the dynamic nature of data streams where data can be created and deleted in real time. Additionally, we propose a novel method, DEAN, Discovery via Energy guidance and feature AugmentatioN, which can discover novel categories in an online manner through energy-guided discovery and facilitate discriminative learning via energy-based contrastive loss. Furthermore, DEAN effectively pseudo-labels unlabeled data through variance-based feature augmentation. Experimental results demonstrate that our proposed DEAN achieves outstanding performance in proposed OCGCD scenario. 논문 제목: Versatile Incremental Learning: Towards Class and Domain-Agnostic Incremental Learning "Versatile Incremental Learning: Towards Class and Domain-Agnostic Incremental Learning" 논문은 기존 연속 학습이 클래스만 증가하거나 (Class Incremental) 도메인만 증가하는 (Domain Incremental) 상황을 주로 다룬 다는 한계를 극복하기 위해, 이후 태스크에서 클래스 또는 도메인, 또는 두 가지가 한꺼번에 증가할지에 대한 사전 지식이 없는 Versatile Incremental Learning (VIL)을 제안합니다. 이와 함께 VIL에서 발생할 수 있는 문제를 해결할 수 있는 새로운 프레임워크 ICON을 제안합니다. VIL에서 모델이 연속적으로 변하는 입력 태스크 흐름에 대하여 지식을 효과적으로 축적하기 어렵다는 문제를 해결하기 위해 클러스터 기반 어댑터 변화 제어 방법을 제안합니다. 또한, 다른 도메인에 대해 학습할 시 분류기에서 발생하는 semantic drift를 해결하기 위해 출력 노드를 동적으로 늘릴 수 있는 증분 분류기를 제안합니다. 이를 통하여 본 논문에서는 VIL을 포함한 여러 연속 학습 시나리오에서 이전 지식을 유지하며 catastrophic forgetting 없이 새로운 지식을 효과적으로 학습할 수 있다는 것을 다양한 실험을 통해 보여주었습니다. [논문 정보] Versatile Incremental Learning: Towards Class and Domain-Agnostic Incremental Learning Min-Yeong Park, Jae-Ho Lee, and Gyeong-Moon Park European Conference on Computer Vision (ECCV), 2024 Abstract: Incremental Learning (IL) aims to accumulate knowledge from sequential input tasks while overcoming catastrophic forgetting. Existing IL methods typically assume that an incoming task has only increments of classes or domains, referred to as Class IL (CIL) or Domain IL (DIL), respectively. In this work, we consider a more challenging and realistic but under-explored IL scenario, named Versatile Incremental Learning (VIL), in which a model has no prior of which of the classes or domains will increase in the next task. In the proposed VIL scenario, the model faces intra-class domain confusion and interdomain class confusion, which make the model fail to accumulate new knowledge without interference with learned knowledge. To address these issues, we propose a simple yet effective IL framework, named Incremental Classifier with Adaptation Shift cONtrol (ICON). Based on shifts of learnable modules, we design a novel regularization method called Cluster-based Adaptation Shift conTrol (CAST) to control the model to avoid confusion with the previously learned knowledge and thereby accumulate the new knowledge more effectively. Moreover, we introduce Incremental Classifier (IC) which expands its output nodes to address the overwriting issue from different domains corresponding to a single class while maintaining the previous knowledge. We conducted extensive experiments on three benchmarks, showcasing the effectiveness of our method across all the scenarios, particularly in cases where the next task can be randomly altered. Our implementation code is available at https://github.com/KHU-AGI/VIL. -
2024.0412
김성태 교수 연구실(Augmented Intelligence Lab.), CVPR 2024 논문 2편 게재 승인
Augmented Intelligence Lab (지도교수: 김성태)의 시각-언어(Vision-language) 멀티모달 연구 논문 2편이 인공지능 분야 세계 최고 권위의 학술대회인 IEEE/CVF Conference on Computer Vision and Pattern Recognition 2024 (CVPR 2024)에 게재 승인되었습니다. 논문은 2024년 6월 미국 시애틀에서 발표될 예정입니다. [논문 정보] "WWW: A Unified Framework for Explaining What, Where and Why of Neural Networks by Interpretation of Neuron Concept” Yong Hyun Ahn, Hyeon Bae Kim, Seong Tae Kim IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). 2024. "WWW: A Unified Framework for Explaining What, Where and Why of Neural Networks by Interpretation of Neuron Concept " 논문에서는 뉴럴 네트워크 모델의 블랙박스 문제, 즉 모델의 불확실하고 불투명한 의사 결정 문제를 해결하기 위하여 뉴럴 네트워크의 각 뉴런이 학습한 Concept을 시각-언어 모델을 이용하여 사람의 언어로 해석하고 판단 근거를 해설함으로써 더 투명하고 인간 친화적인 의사결정 해석 방법을 제안하였습니다. 나아가 뉴럴 네트워크 모델 뉴런의 표현 해석을 기반으로 한 전역적인 모델 설명 방법 및 이를 바탕으로 모델의 각 입력에 대한(Local) 무엇이(What), 어디에(Where), 왜(Why)로 구성된 세가지 핵심 요소를 포함한 설명을 제공할 수 있는 통합 프레임워크를 세계 최초로 제시하였습니다. [논문 정보] "Do you remember? Dense Video Captioning with Cross-Modal Memory Retrieval ” Minkuk Kim, Hyeon bae Kim, Jinyoung Moon, Jinwoo Choi*, Seong Tae Kim* (*: cocoresponding authors) IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). 2024. "Do you remember? Dense Video Captioning with Cross-Modal Memory Retrieval" 논문에서, Video의 주요구간을 Localization하고 이에 대해 자연어로 설명하는 Dense Video Captioning 연구를 위해 인간의 인지 정보 처리에서 영감을 받아 새로운 메모리 기반 뉴럴 네트워크 모델을 제안하였습니다. 제안 방법은 텍스트로 구성된 외부 메모리를 활용하여 사전 지식을 모델링 하고, 주어진 비디오의 시각 정보로부터 메모리에서 관련이 있는 자연어 설명을 회상하기 위한 Cross-modal Video-text 매칭 방법을 소개합니다. 검색된 텍스트 정보를 효과적으로 통합하기 위해, 멀티모달(Multi-modal) 인코더와 시각 정보 및 텍스트 정보에 대한 Cross-attention 모듈을 갖춘 디코더를 제안하고 효용성을 입증하였습니다. -
2024.0325
박경문 교수 연구실(Artificial General Intelligence Lab.) CVPR 2024 총 3편 게재 승인
Artificial General Intelligence Lab (지도교수: 박경문)의 논문 3편이 컴퓨터 비전 분야의 Top-tier 학술 대회인 IEEE/CVF Conference on Computer Vision and Pattern Recognition 2024 (CVPR 2024)에 게재 승인 되었습니다. 논문 제목: “Generative Unlearning for Any Identity” “Generative Unlearning for Any Identity” 논문은 최근 생성 모델들의 눈부신 발전 이면에 존재하는 privacy 문제를 다룹니다. 생성 모델에서의 inversion 및 image editing 기술을 바탕으로 누구라도 쉽게 특정 인물을 생성 모델 상에서 표현하고 변형할 수 있습니다. 본 논문에서는 생성 모델 상에서 특정 인물에 대한 생성을 막기위한 프레임워크인 GUIDE를 제안합니다. GUIDE는 크게 두가지의 성분으로 구성됩니다. 하나는 latent space 상에서 특정 인물을 대체하기 위한 다른 latent code를 찾는 Un-Identifying Face On Latent Space (UFO)와 실질적으로 특정 인물을 제거하기 위한 손실 함수들로 이루어진 Latent Target Unlearning (LTU)입니다. GUIDE를 통해서 생성 모델에서의 특정 인물을 기존 모델의 성능을 최대한 유지하면서 제거할 수 있었습니다. [논문 정보] Generative Unlearning for Any Identity Juwon Seo, Sung-Hoon Lee, Tae-Young Lee, Seungjun Moon, and Gyeong-Moon Park IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2024 Abstract: Recent advances in generative models trained on large-scale datasets have made it possible to synthesize high-quality samples across various domains. Moreover, the emergence of strong inversion networks enables not only a reconstruction of real-world images but also the modification of attributes through various editing methods. However, in certain domains related to privacy issues, e.g., human faces, advanced generative models along with strong inversion methods can lead to potential misuses. In this paper, we propose an essential yet under explored task called generative identity unlearning, which steers the model not to generate an image of specific identity. In the generative identity unlearning, we target the following objectives:(i) preventing the generation of images with a certain identity, and (ii) preserving the overall quality of the generative model. To satisfy these goals, we propose a novel frame-work, Generative Unlearning for Any IDEntity (GUIDE), which prevents the reconstruction of a specific identity by unlearning the generator with only a single image. GUIDE consists of two parts: (i) finding a target point for optimization that un-identifies the source latent code and (ii) novel loss functions that facilitate the unlearning procedure while less affecting the learned distribution. Our extensive experiments demonstrate that our proposed method achieves state-of-the-art performance in the generative machine unlearning task. 논문 제목: Pre-trained Vision and Language Transformers Are Few-Shot Incremental Learners "Pre-trained Vision and Language Transformers Are Few-Shot Incremental Learners" 논문은 기존의 Few-Shot Class Incremental Learning (FSCIL)을 위한 작은 모델들을 활용하는 한계를 지적하며, 최근 컴퓨터 비전에서 널리 활용되는 Large model을 통한 학습 방식인 PriViLege를 제시합니다. Large model의 활용으로 FSCIL에서 발생하는 Overfitting 문제와 Catastrophic Forgetting 문제가 더욱 심화되는 것을 해결하기 위해, Pre-trained Knowledge Tuning (PKT), Entropy-based Divergence Loss, 그리고 Semantic Knowledge Distillation Loss를 제안합니다. 이를 통해 기존의 방법들에 비해 낮은 Forgetting과 뛰어난 Performance를 달성하였습니다. [논문 정보] Pre-trained Vision and Language Transformers Are Few-Shot Incremental Learners Keon-Hee Park, Kyungwoo Song, and Gyeong-Moon Park IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2024 Abstract: Few Shot Class Incremental Learning (FSCIL) is a task that requires a model to learn new classes incrementally without forgetting when only a few samples for each class are given. FSCIL encounters two significant challenges: catastrophic forgetting and overfitting, and these challenges have driven prior studies to primarily rely on shallow models, such as ResNet-18. Even though their limited capacity can mitigate both forgetting and overfitting issues, it leads to inadequate knowledge transfer during few-shot incremental sessions. In this paper, we argue that large models such as vision and language transformers pre-trained on large datasets can be excellent few-shot incremental learners. To this end, we propose a novel FSCIL framework called PriViLege, Pre-trained Vision and Language transformers with prompting functions and knowledge distillation. Our framework effectively addresses the challenges of catastrophic forgetting and overfitting in large models through new pre-trained knowledge tuning (PKT) and two losses: entropy-based divergence loss and semantic knowledge distillation loss. Experimental results show that the proposed PriViLege significantly outperforms the existing state-of-the-art methods with a large margin, e.g., +9.38% in CUB200, +20.58% in CIFAR-100, and +13.36% in miniImageNet. 논문 제목: "Open-Set Domain Adaptation for Semantic Segmentation" "Open-Set Domain Adaptation for Semantic Segmentation" 은 기존 Unsupervised Domain Adaptation (UDA) for Semantic Segmentation 시나리오가 target domain 에서 알려지지않은(unknown) 클래스가 있을 때 이를 고려하지 못하기 때문에 실제 시나리오에 적용이 제한된다는 점을 지적합니다. 이에 대응하여 target domain에서 unknown 클래스가 발생하는 Open Set Domain Adaptation for Semantic Segmentation (OSDA-SS) 시나리오를 처음으로 제안합니다. 또한 OSDA-SS 에서 기존 UDA 기법을 적용했을 때 unknown 클래스들의 boundary 부분과 모양을 정확하게 예측하지 못한다는 점을 해결하기 위해 BUS를 제안합니다. BUS는 boundary 부분에서 unknown 클래스를 정확하게 구분하기 위한 팽창과 침식 모폴로지 연산 기법 기반 대비 손실 함수(DECON Loss)와 unknown 클래스의 모양을 예측하기 위해 모델이 도메인과 크기에 불변적인 특징을 학습하도록하는 새로운 도메인 혼합 증강 방법인 OpenReMix를 포함합니다. 이를 통해 OSDA-SS 시나리오에서도 기존 클래스의 성능 저하 없이 unknown 클래스를 정확하게 예측할 수 있습니다. [논문 정보] Open Set Domain Adaptation for Semantic Segmentation Seun-An Choe, Ah-Hyung Shin, Keon-Hee Park, Jinwoo Choi, and Gyeong-Moon Park IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2024 Abstract: Unsupervised domain adaptation (UDA) for Semantic segmentation aims to transfer the pixel-wise knowledge from the labeled source domain to an unlabeled target domain. However, current UDA methods typically assume a shared label space between source and target, limiting their applicability in real-world scenarios where novel categories may emerge in the target domain. In this paper, we introduce Open Set Domain Adaptation for Semantic Segmentation (OSDA-SS) for the first time, where the target domain includes unknown classes. We identify two major problems in the OSDA-SS scenario as follows: 1) the existing UDA methods struggle to predict the exact boundary of the unknown class, and 2) they fail to accurately predict the shape of the unknown class. To address these issues, we propose Boundary and Unknown Shape-Aware open set domain adaptation, coined BUS. Our BUS can accurately discern the boundaries between known and unknown classes using a novel dilation-erosion-based contrastive loss, which helps to discriminate the region for the unknown class in a contrastive manner. In addition, we propose OpenReMix, a new domain mixing augmentation method that guides our model to effectively learn domain and size-invariant features for improving the shape detection of the known and unknown classes. Through extensive experiments, we demonstrate that our proposed BUS effectively detects the unknown class in the challenging OSDA-SS scenario, compared to the previous methods by a large margin.
-
2026.0102
[양식] 안전교육 미이수 사유서
안전교육 미이수 사유서 양식입니다. 이메일 제출 시, 파일명에 본인 학과, 학번, 이름 기재 부탁드립니다. -
2025.0902
[양식] 전공 기준연도 변경 신청서
전공 기준연도 변경 신청서 양식입니다. 신청서 내 유의사항 확인 후 행정실에 제출 바랍니다. -
2025.0902
[양식] 수강 강제입력 신청서
수강 강제입력 신청서 양식입니다. 작성하시어 행정실이 아닌 담당 교수님께 제출 바랍니다. -
2025.0325
[양식] 입대휴학신청서 (입대일이 지나서 신청하는 경우)
입대일이 지나서 신청하는 경우에 해당되는 입대 휴학 신청서 양식입니다. 이메일로 제출 시, 파일명에 본인 학과, 학번 이름 기재 부탁드립니다. [작성 전 필독사항] ◼ 대출도서 미반납 시 연체료 등의 불이익이 따를 수 있으니, 휴학 전 도서대출현황을 반드시 확인하기 바랍니다. ◼ 입대 휴학신청서를 제출한 후 본인의 종합정보시스템 → 인터넷신청 → 학적변동신청에서 군휴학 신청 완료되었음을 꼭 확인하기 바랍니다. ◼ 입대휴학 후 입대가 취소(귀향)되었을 시에는 7일 이내에 귀향증명서를 지참하여 단과대학 행정실에 신고해야 합니다. ◼ 복학 : 전역일이 속하는 학기를 포함하여 2개학기 내에 반드시 복학하거나 연장휴학 신청하여야 합니다. (미처리시 제적됨) -
2025.0325
[양식] 등록금반환신청서
등록금 반환 신청서 양식입니다. 이메일 제출 시, 파일명에 본인 학과, 학번, 이름 기재 부탁드립니다. -
2025.0325
[양식] 출석인정신청서 (일반)
아래 사유에 따른 출석인정신청서 입니다. 이메일 제출 시, 파일명에 본인 학과, 학번, 이름 기재 부탁드립니다. ■ 안내 및 유의사항 관련 규정 1. 관련 : 「학사운영에 관한 규정」 제6조(출석인정) 2. 아래 사유에 해당할 경우 교강사는 증빙서류를 확인 후 출석으로 간주할 수 있음 사유 인정기간 (휴일포함) 증빙서류 ① 직계가족(조부모, 부모), 형제자매, 배우자의 사망 5일 - 사망진단서 또는 병원확인서 - 가족관계 확인 서류 ② 병역의무로 인한 사유 해당일 또는 해당기간 징병검사통지서 또는 훈련참석확인서 등 병역 관련 증빙서류 ③ 정부기관 또는 학교의 요청에 의한 행사참석의 사유 해당일 - 행사참석 확인서 등 - 관련공문 외 ④ 교육실습 및 소속대학장이 인정하는 학습답사, 연수, 훈련, 행사, 학회 등의 참가에 의한 사유 해당기간 - 참석 확인서 또는 연수 확인서 등 - 관련공문 외 ⑤ 졸업예정자(마지막학기 등록자)의 채용시험 응시 및 조기취업에 의한 사유 해당기간 조기취업용신청서/참석확인서류 ⑥ 생리공결에 의한 사유 월1회 ⑦ 등교가 불가능한 질병으로 인한 사유 최대 4주 진료확인서 ⑧ 체육특기자의 연습 및 대회참가의 사유 해당기간 관련서류 ⑨ 본인의 결혼 본인 7일 청첩장 또는 혼인신고서 ⑩ 본인 또는 배우자의 출산 본인 20일 배우자 10일 출생신고서, 의료기관 확인서 등 ⑪ 기타 총장이 허가한 사유 해당기간 관련서류 - 코로나19 백신 공결 접종일 포함 최대 2일 코로나19 백신예방접종내역 확인서 출석 인정 절차 1. 학생은 출석인정 신청서 및 증빙서류를 사유발생 후 10일 이내에 담당 교강사에게 제출함 - ④,⑧항 “소속대학장이 인정하는 학습답사, 연수, 훈련, 행사, 학회 등의 참가, 체육특기자의 연습 및 대회 참가”로 출석 인정을 신청하는 학생은 증빙자료를 지참하고 소속대학 행정실을 방문하여 “출석인정확인서”(학장 명의)를 발급받아 담당 교강사에게 제출하여야 함(행정실에서는 해당문서 반드시 확인) - ⑥항에 의한 사유인 자는 경희대학교 포털(인포21)에서 신청하여야 함 - ⑤,⑧항에 의한 사유는 별도의 시행세칙으로 정하여 운영함 2. 교강사는 신청서류 확인 후 출석으로 인정할 수 있으며(③,⑦ 문서 발급처 반드시 확인), 위 이외의 기타 사유로 부득이하게 결석하는 경우 담당 교강사의 재량에 의하여 출석으로 대체 인정할 수 있으나, 해당 증빙서류 제출 및 출석에 상응하는 활동 등을 수행하여야 함 3. 학생은 결석사유 및 결석기간에 따라 교강사가 제시하는 과제 제출 및 시험 등에 참여하여야 함 -
2025.0325
[양식] 출석인정신청서 (조기취업자용)
조기취업자용 출석인정신청서 양식입니다. 이메일 제출 시, 파일명에 본인 학과, 학번, 이름 기재 부탁드립니다. ■ 안내 및 유의사항 관련규정 「학사운영에 관한 규정」 제6조(출석인정) 출석인정 절차 1. 학생은 사유발생 즉시 각 담당 교과목 교강사에게 취업 사실을 알려야 함 2. 학생은 출석인정 신청서류에 대해 사유발생 후 10일 이내에 소속 학과장 확인을 받은 후 복사하여 원본은 소속대학 행정실에 제출하고 사본은 각 교강사에게 제출하여야 함 3. 교강사는 신청서류 확인 후 승인하고 성적평가를 위한 준수사항(과제, 시험, 기타 등)을 학생에게 안내하여야 함 4. 학생은 교강사가 제시한 과제 제출 및 시험 등에 참여하여야 함 5. 학생은 학기말(기말시험 전주)에 출석인정 증빙을 위한 서류(재직증명서 등)를 각 교강사에게 제출해야 함 6. 교강사는 출석인정 증빙자료 및 제 준수사항의 이행여부를 평가하여 출석을 인정함 학생 유의사항 1. 출석인정신청서는 사유발생일로부터 10일 이내에 제출하여야 함 2. 상기 내용이 사실과 다를 경우 불이익이 있을 수 있으며, 그에 대한 책임은 학생 본인에게 있음 3. 학생은 출석인정증빙을 위해 학기말(기말시험 전주)에 재직증명서를 교강사에게 제출하여야 하며, 제출하지 않는 경우 출석인정을 받을 수 없음 4. 출석인정 신청 승인을 받지 않은 자는 학기말에 출석인정증빙을 제출하여도 출석인정을 받을 수 없음 5. 고용기간이 중단된 경우 출석인정대상이 아니므로 즉시 교강사에게 알리고 수업에 출석하여야 함 교강사 유의사항 1. 신청 학생에게 성적평가 기준에 따라 성적인정을 위한 준수사항(과제, 시험, 기타)을 안내하여야 함 2. 학기말에 학생으로부터 출석인정 증빙서류(재직증명서)를 수령하고 확인한 후 출석으로 인정함 3. 출석부에 조기취업자임과 출석인정기간을 표기하여야 함 -
2025.0325
[양식] 임신·출산·육아 휴학신청서
임신·출산·육아 휴학신청서 양식입니다. 이메일 제출 시, 파일명에 본인 학과, 학번, 이름 기재 부탁드립니다. ※ 유의사항 1. 임신·출산휴학은 여학생 본인만 신청 가능합니다. 2. 육아휴학은 여학생 본인 및 배우자가 신청 가능합니다. 3. 대출도서는 반납 후 휴학신청을 하시기 바랍니다. -
2025.0325
[양식] 특별 휴학신청서 (일반휴학 연한 만료자)
특별 휴학신청서입니다. 이메일 제출 시, 파일명에 본인 학과, 학번, 이름 기재 부탁드립니다. ※ 유의사항 1. 특별휴학은 일반휴학 연한 만료자가 추가로 휴학신청을 하여야 할 경우, 특정한 사유에 대해서만 허용하고 있습니다. 2. 특별휴학은 통산 1년을 초과할 수 없으며 특별휴학이 허용되는 사유별 각 1개 학기를 초과할 수 없습니다. 다만 1개 학년도를 교육과정으로 운영하는 의학계열 및 약학과의 경우 최대 1년까지 휴학이 가능합니다. -
2025.0325
[양식] 휴학신청서 (일반)
일반 휴학신청서 양식입니다. 이메일 제출 시, 파일명에 본인 학과, 학번, 이름 기재 부탁드립니다. *휴학신청기간은 학기종료일(2월 마지막날 또는 8월 31일)로 작성바랍니다.