AI협력수업 14 – 햄스터봇 제스쳐 이동

김도용 선생님

소개 Introduce

이 프로그램은 학생들이 제스처 기반 인터페이스를 개발하며 컴퓨팅 사고력을 발달시키는 것을 목표로 한다. 이를 위해 블록코딩(Entry) 이미지 인식 기능을 활용하여 제스처로 로봇을 움직이는 활동을 진행한다. 학생들은 이미지 인식을 통해 제스처를 인식하고, 이를 기반으로 로봇을 움직이는 인터페이스를 개발한다. 이 과정은 학생들이 알고리즘적 사고, 문제 해결 능력, 그리고 프로그래밍 기술을 향상시키는 데 중요한 역할을 한다.

제스처 기반 로봇 제어 프로젝트를 통해 학생들은 컴퓨터가 실제 세계의 물리적 움직임을 어떻게 인식하고 해석하는지 이해한다. 이는 추상적인 개념을 실제 상황에 적용하는 컴퓨팅 사고력의 핵심 요소이다. 학생들은 복잡한 문제를 작은 단위로 분해하고, 각 단계를 로직으로 전환하여 로봇에게 명령을 내리는 방법을 배운다. 이 과정에서 발생하는 시행착오는 학생들로 하여금 더 나은 해결책을 찾기 위해 창의적으로 사고하고, 자신의 가설을 실험해보는 기회를 제공한다.

이 수업의 특징 중 하나는 인공지능과의 협력이다. 학생들은 이미지 인식 알고리즘을 통해 제스처를 인식하고, 이를 로봇의 움직임으로 변환하는 과정에서 인공지능 기술을 활용한다. 학생들은 인공지능 기술을 바탕으로 자신의 생각하는 새로운 입력장치를 설계하며, 특히, 인공지능의 인식 과정을 분석하여 이를 자신들의 창의적인 프로젝트에 적용하고, 인공지능과 상호작용을 경험한다. 학생들은 인공지능이 어떻게 학습하고, 결정을 내리는지 이해하고, 이 지식을 바탕으로 자신만의 인터페이스를 설계하고 개선하는 데 활용한다.

 

AI

차시

4차시

실과6-1

학습목표

1차시: 이미지 인식의 기본 과정을 이해하고, 손을 인식하기 위한 다양한 시도를 할 수 있다.

2차시: 손가락의 위치를 이용하여 햄스터봇을 움직이는 과정을 이해하고 적용할 수 있다.

3~4차시: 제스처 기반 로봇 조종 시스템을 완성하고, 이를 통해 로봇을 다양한 명령으로 움직여 미션을 해결할 수 있다.

인공지능
협력

⦁ AI-학생 협력 차시 : 1, 2, 3, 4차시

⦁ 사용하는 인공지능 플랫폼: 엔트리 이미지 인식

⦁ 목적: 학생의 손 인식하기, 인식한 손의 햄스터 이동을 위한 좌표로 출력하기

⦁ 협력 요소 

구분 협력 요소
학생
  • 인공지능이 제공한 이미지 인식 기초를 바탕으로 손 인식을 위한 다양한 시도를 한다.
  • 인공지능이 제공하는 손가락 위치 인식 방법을 바탕으로 햄스터봇을 움직이는 코드를 작성한다.
  • 제스처 기반 로봇 조종 시스템을 완성하고, 이를 활용하여 로봇을 다양한 명령으로 움직여 미션을 해결한다.
인공지능
  • 웹캠을 이용하여 사물을 인식하고, 특히, 손가락 위치를 인식하여 이를 햄스터봇 이동을 위한 출력 신호로 변환한다.

인공지능
협력구조도

프로그램 활동절차 및 유의사항

1차시

이미지 인식 실험

이 차시에서는 학생들이 이미지 인식의 기본 과정을 이해하고, 실제로 손을 인식하기 위한 다양한 시도를 할 수 있도록 한다. 수업은 대화형 인공지능(AI)과의 상호작용을 통해 시작한다. 이 과정에서 학생들은 이미지 인식 기술에 대한 기본적인 이해를 얻고, 웹캠을 통해 손의 이미지를 인식하는 방법을 실험한다. 학생들은 AI가 제공하는 지침에 따라 손 인식에 필요한 다양한 조건과을 탐구하면서, 이미지 인식의 원리를 깊이 있게 이해한다.

준비물

☐ 웹캠이 장착된 컴퓨터 또는 노트북

☐ 이미지 인식을 지원하는 인공지능 플랫폼(예: 엔트리)

☐ 개인 활동지

유의사항

⦁ 이미지 인식 기술의 기본 원리를 다양한 놀이 과정을 통해 이해하고, 실제로 손 인식을 위한 다양한 시도를 하는 과정에서 학습이 이루어질 수 있도록 한다.

⦁ 이미지 인식 결과가 의도한 것과 다를 때, 단순한 기계의 오류 등으로 해석하는 것을 넘어, 인공지능의 한계 등으로 생각하여 프로그램을 개선한다.

⦁ 1단계: 이미지 인식하기

인공지능 플랫폼을 사용하여 이미지 인식의 기본 원리를 학습한다.

⦁ 2단계: 손 인식 실험하기

실제로 웹캠을 통해 손 이미지를 인식하는 방법을 실험한다.

⦁ 3단계: 실험 결과 발표하기

다양한 조명, 배경, 손의 위치 등의 변수를 조절하며 손 인식의 정확도를 발표한다.

2차시

손가락 위치를 이용한 햄스터봇 움직이기

이 차시에서는 학생들이 손가락 위치를 이용하여 햄스터봇을 움직이는 과정을 이해하고, 직접 적용해 볼 수 있게 한다. 지난 차시에서 학습한 이미지 인식을 통해 손가락의 상대적 위치를 식별하는 방법을 배우고, 이 정보를 사용하여 햄스터봇을 조종하는 프로그램을 제작한다. 학생들은 AI가 제공하는 지침에 따라 손가락 위치 데이터를 활용하는 다양한 방법을 탐구하며 컴퓨팅 사고력을 증진한다.

 

준비물

☐ 웹캠이 장착된 컴퓨터 또는 노트북

☐ 이미지 인식을 지원하는 인공지능 플랫폼(예: 엔트리)

☐ 햄스터봇 또는 유사한 로봇 키트

☐ 개인 활동지

 

유의사항

⦁ 이미지 인식을 통해 손가락 위치를 정확히 식별하는 방법을 이해하고, 이 데이터를 로봇 조종에 적용하는 과정에서 학습이 이루어질 수 있도록 한다.

⦁ 프로그래밍 과정에서 발생할 수 있는 오류를 진단하고, 해결하는 방법을 배운다.

⦁ 학생들은 다양한 손가락 움직임을 통해 로봇을 다양하게 조종해 보며, 창의적인 접근 방식을 탐색한다.

 

⦁ 1단계: 이미지 인식과 손가락 위치 식별

이미지 인식 기능을 이용하여 웹캠을 통해 손가락의 위치를 인식하고, 그 데이터가 어떻게 표현되는지 학습한다.

 

⦁ 2단계: 햄스터봇 조종 알고리즘 설계

손가락 위치 데이터를 기반으로 햄스터봇을 조종하는 간단한 프로그램을 설계한다. 이 과정에서 기본적인 프로그래밍 원리와 알고리즘 개발에 대해 배운다.

 

⦁ 3단계: 조종 알고리즘 개발 및 연습

손가락 위치 데이터를 이용하여 엔트리 봇을 움직여보고 정교한 움직임을 위해 좌표값을 조종해가며 다양한 개선을 시도한다.

3-4차시

제스처 기반 로봇 조종 시스템 완성과 미션 수행

이 차시에서는 학생들이 제스처 기반 로봇 조종 시스템을 완성하고, 이를 이용해 로봇을 다양한 명령으로 움직여 미션을 해결하는 과정을 배운다. 지난 차시에서 배운 손가락 위치 인식과 이미지 인식 기술을 활용하여, 학생들은 로봇을 조종하는 더 복잡하고 창의적인 방법을 개발한다. 이 과정을 통해 학생들은 컴퓨팅 사고력과 문제 해결 능력, 그리고 팀워크를 발전시킬 수 있다.

 

준비물

☐ 인터넷을 사용할 수 있는 디지털기기(패드, 노트북 등)

☐ 인공지능 플랫폼

☐ 개인 활동지

☐ 웹캠이 장착된 컴퓨터 또는 노트북

☐ 이미지 인식을 지원하는 인공지능 플랫폼(예: 엔트리)

☐ 햄스터봇 또는 유사한 로봇 키트

☐ 개인 활동지 및 팀 활동지

 

유의사항

⦁ 학생들은 제스처 기반 로봇 조종 시스템 개발 과정에서 컴퓨팅사고를 발휘해야 하며, 다양한 해결책을 탐색하고 테스트하는 과정에서 협력과 의사소통 능력을 강화해야 한다.

⦁ 제시된 미션은 현실적이고 실현 가능한 목표를 포함해야 하며, 학생들은 주어진 문제를 해결하기 위해 전략을 세워야 한다.bounce house

⦁ 1단계: 로봇 조종 시스템 개발

이미지 인식 기술을 활용한 제스처 기반 로봇 조종 시스템을 개발한다. 이 과정에서 학생들은 프로그래밍, 알고리즘 설계, 그리고 사용자 인터페이스 디자인에 대해 학습하고 적용한다.

 

⦁ 2단계: 미션 기획 및 수행

자체적으로 설정한 목표를 달성하기 위한 미션을 기획한다. 학생들은 제스처 기반 로봇 조종 시스템을 사용하여 로봇을 다양한 명령으로 움직여 미션을 수행해야 한다.

 

⦁ 3단계: 프로젝트 발표 및 평가

로봇 조종 시스템과 미션 수행 과정을 발표한다. 이때, 프로젝트의 창의성, 기술적 완성도, 문제 해결 전략, 팀워크 등이 평가의 기준이 된다. 발표 후, 서로의 프로젝트에 대해 피드백을 주고 받으며, 성공적인 프로젝트 수행을 위한 아이디어와 개선점을 공유한다.