전체 글 (249) 썸네일형 리스트형 ~10강 메모: 프로젝트 생성, 저장, 실습1 ghostbuster 시작 켜두면 모델링하기 편한 anti-aliasing(선 부드럽게) 켜두면 모델링하기 편한 ambient occulation(그림자 표현) hard vs organic 프로젝트 시작 시 항상 File > set project 다음에는 File > project window 다음에는 Save as(scene 에 저장) cmd + d 로 복제하면 channel box 상세조정은 불가해진다 v: vertex snap v 누른 상태에서 스크롤로 이동 v 누른 상태에서 d: 피벗 이동 modify > center pivot: 피벗 다시 중앙으로 이동 vertex, edge, object 모드 선택된 오브젝트만 보고 싶을때: isolate select 실습 중간결과: ~8강 메모: j 스냅 j 누르면 snap 걸림, tool settings 에서 absolute/relative 선택, 원하는 스냅 값 지정 ~7강 메모: q선택, w이동, e회전, r스케일, 화면이동 q: 선택 w: 이동 e: 회전 r: 스케일 w + 좌클릭: world/object 기준으로 피벗 설정 가능 e + 좌클릭: world/object 기준으로 피벗 설정 가능 alt + 좌클릭: 회전 alt + 우클릭: 확대 축소 alt + 스크롤: 이동 f: 선택한 오브젝트로 이동 look at selection: 선택한 오브젝트 기준으로 시점(화면) 이동 ~6강 메모: 마야 화면 구성, 뷰포트 이동 alt + b : 배경색 토글 space bar 짧게: 뷰 이동 space bar 꾹: maya hotbox 마야 indie version 구입 https://www.autodesk.co.kr/campaigns/me-indie 합리적인 가격으로 Autodesk Indie 소프트웨어를 사용해 보세요 합리적인 가격으로 Autodesk Maya Indie 및 Autodesk 3ds Max Indie 등의 오토데스크 전문 도구를 이용해 보세요. www.autodesk.co.kr 200만원대 본품(?) 사려면 너무 비싸서 강의에서 추천하는 인디로 샀당 당분간 마야 공부에 올인해야지 학원도 빨리 다시 가야하는데.... 꺄ㅏㅏㅏㅏ 샀당 뿌듯 DeepRacer 직전 모델 살짝 튜닝, 디폴트 로직 추가 import math # import random # import numpy # import scipy # import shapely def reward_function(params): # 초기화 reward = 0 # param 값 다 가져오기 all_wheels_on_track = params['all_wheels_on_track'] x = params['x'] y = params['y'] closest_objects = params['closest_objects'] closest_waypoints = params['closest_waypoints'] distance_from_center = params['distance_from_center'] is_crashed = params['is_crashe.. DeepRacer 내가 만든 reward function 메모: 우선 장애물/경쟁차 회피 제외하고 생각 import math # import random # import numpy # import scipy # import shapely def reward_function(params): # 초기화 reward = 0 # param 값 다 가져오기 all_wheels_on_track = params['all_wheels_on_track'] x = params['x'] y = params['y'] closest_objects = params['closest_objects'] closest_waypoints = params['closest_waypoints'] distance_from_center = params['distance_from_center'] is_c.. DeepRacer 세번째 모델, PPO대신 SAC 선택, 최저속도 0.5에서 1로 상향, 최고속도 4, reward function은 gpt, 나머지 디폴트 (2024021902GPT) def reward_function(params): # Read input parameters all_wheels_on_track = params['all_wheels_on_track'] distance_from_center = params['distance_from_center'] progress = params['progress'] speed = params['speed'] steps = params['steps'] track_width = params['track_width'] is_left_of_center = params['is_left_of_center'] # Reward for staying on track if all_wheels_on_track and (0.5 * track_width -.. DeepRacer 모델 생성 시 params (원본:https://docs.aws.amazon.com/deepracer/latest/developerguide/deepracer-reward-function-input.html) all_wheels_on_track Boolean # flag to indicate if the agent is on the track 트랙 내 존재 여부 x float # agent's x-coordinate in meters 자차 x좌표 y float # agent's y-coordinate in meters 자차 y좌표 closest_objects [int, int] # zero-based indices of the two closest objects to the agent's current position.. DeepRacer 두번째 모델 생성, 디폴트에서 최고속도랑 보상 정보만 변경 (deepracer2024021901) 첫번째 모델(디폴트값)에서 if distance_from_center 5로 변경, 최고 속도 1에서 4로 변경 결과: 1번 이탈, 20초 완주 이전 1 2 3 4 5 6 ··· 25 다음