https://github.com/jetsonai/HK_LSTMSenfuClass/blob/main/Day2/4_sensorfusion.md
https://edu.hancomacademy.com/
https://edu.hancomacademy.com/survey/intro.php
LLM 프롬프트를 공유할 수 있는 서비스를 만들어봤습니다.
(usetextify.com)https://news.hada.io/topic?id=21397
++++++++======>>>>>> (예제보기) https://usetextify.com/feeds/96j72jngoar1j81
김혜진- 젯슨에이아이 연락처
Copyright Note Author 주식회사 젯슨에이아이 Issue Date 2025-06-08 Version 1.00
Homepage
https://jetsonai.co.kr/ https://www.youtube.com/@alssaem
E-mail : jetsonai@jetsonai.co.kr / kate.brighteyes@gmail.com
Copyright© 2025 JetsonAl, Ltd. All rights reserved.
Point Cloud-
1. 센서퓨전 : https://kr.appen.com/blog/sensor-fusion/
2.
P. 09~ 로봇 부팅 후 웹 연결 / ip 5000 vs. ip 8888
메인 프로그램 종료-> 예제 실습 준비
-1. 주피터 노트북 옆에 있는 아이콘을 클릭하여 런처"라는 새 탭을 엽니다.
2 기타 아래의 터미널을 클릭하여 터미널 창을 엽니다.
3. 터미널 참에 bash를 입력하고 Enter 키를 누릅니다. 이제 Bash Shell을 사용하여 로봇을 제어할 수 있습니다.
5. 다음 명령을 입력합니다. crontab
6. 편집기를 선택하라는 메시지가 표시되면 2를 입력하고 Enter 키를 눌러 vin tiny 품 선택합니다.
7. crontab 설정 파일을 열면 다음 두 줄이 나타납니다.
@reboot-/uge pt plugs-env/bin/python/ugv pt_rpi/app.py >> ~/ugvlog 2>&1 @reboot/bin/bash-/ugv.pt/pi/start jupytersh >> ~/jupyter log.log 2>&
8. i를 누르고 insert 모드가 되면 줄 시작 부분에 #문자를 추가하여 이 줄을 주석 처리합니다.
#@reboot-/ugypt_rpi/uge-env/bin/python/ugv_pt_rpi/app.py >> /ugv.log 2>&1 @reboot/bin/bash-/ugv. pt rpi/start jupyter.sh >> -/jupyter log log 2>&
9. esc를 누르고 : 를 누른 후 wq 를 입력하여 파일을 저장 후 Ctrl + X를 눌러 종료합니다.
10. 기기를 재부팅합니다. 풋슨에이아이
윈도우에 설치
ㆍ 아래 사이트에서 Xming을 다운받아서 설치한다.
https://sourceforge.net/projects/xming/
XXming X Server for Windows
Dewnisad ㆍ설치 파일 실행, 실행 중일때는 윈도우 트레이에 보임
### 자율이동로봇 카메라 라이다 센서퓨전과 LSTM / CONTENTS ####
1. 자율이동로봇 카메라 라이다 센서퓨전과 LSTM-5
- https://narmstudy.tistory.com/20
2. Convolutional Neural Network-13
3. Object Detection-57
- https://developer-lionhong.tistory.com/34#google_vignette
4. Sequential Data Analysis-83 // 순차적 데이터
- https://blog.naver.com/post6155/223818588202
??? LSTM을 활용하여 메타데이터를 활용한 VEHICLE TRAJECTORY예측하여 파이슨코드로 생성해줘
5. 자율주행과 Sensor Fusion--101
- https://beast1251.tistory.com/152#google_vignette
6. Point Cloud Clustering...137
- https://zzziito.tistory.com/41
7. YOLO Object Detection, LiDAR based 3D Object Detection ...159
- https://jml-note.tistory.com/entry/Complex-YOLO-Real-time-3D-Object-Detection-on-Point-Clouds
8. Image Detection & LiDAR Late Fusion 실습-171
- https://hsejun07.tistory.com/101
9. 2D LIDAR Detection 로봇 실습-183
- https://soohwan-justin.tistory.com/44
LSTM 이해하기
자율 이동 로봇 카메라, 라이다,센서 퓨전 / LSTM-장단기 메모리(Long Short-Term Memory, LSTM)는 순환 신경망(RNN) 기법의 하나로 셀, 입력 게이트, 출력 게이트, 망각 게이트를 이용해 기존 순환 신경망(RNN)의 문제인 기울기 소멸 문제(vanishing gradient problem)를 방지하도록 개발되었다
https://dgkim5360.tistory.com/entry/understanding-long-short-term-memory-lstm-kr
#잿슨 에이아이-https://saybox.co.kr/1639 / Jetson 플랫폼은 AI 애플리케이션
https://www.nvidia.com/ko-kr/autonomous-machines/embedded-systems/
합성곱 신경망이라고 불리는 딥러닝 모델
- CNN- https://rubber-tree.tistory.com/116 / https://gdsc-sungshin.tistory.com/40
# 이미지 분류과정 시각화(포렌싱) -https://forensics.tistory.com/26
시크릿 모드
https://support.google.com/chrome/answer/95464?hl=ko&co=GENIE.Platform%3DAndroid
CMD ? 명령프롬프트 ;- https://blog.naver.com/dl2411/222589808365
https://github.com/jaungiers/LSTM-Neural-Network-for-Time-Series-Prediction
(실습)-https://saybox.co.kr/1639
#
# DLF
# 001. Keras- https://brillant-revue.tistory.com/3
# 002. PyTouch - https://lonaru-burnout.tistory.com/18
# 003. TensorFlow - https://www.tensorflow.org/?hl=ko
TensorFlow Core : https://www.tensorflow.org/learn?hl=ko
성공적인 ML 결과를 얻기 위해 데이터 준비 및 로드하기
힘들게 만든 ML 모델의 성공 여부를 가르는 가장 중요한 요소는 바로 데이터입니다. TensorFlow는 규모에 따라 데이터를 통합, 정리, 전처리할 수 있도록 여러 가지 데이터 관련 도구를 제공합니다.
또한 책임감 있는 AI 도구를 사용하면 데이터에 포함된 편향을 발견하고 제거함으로써 모델을 통해 공정하며 윤리적인 결과를 얻을 수 있습니다.
Colab에서 사용해 보기 -이미지 데이터 세트 로드 및 전처리하기
데이터 세트 조사 및 시각화하기# DBSCAN- 정의 / https://datananalysis.tistory.com/135
- Density-Based Spatial Clustering Of Applications With Noise의 약자
- Noise를 포함한 데이터에 대해 밀도 기반으로 클러스터링 하는 알고리즘
- 데이터가 밀집되어 있는 집합을 클러스터로 간주하고 이를 군집화
https://www.kdnuggets.com/2020/04/dbscan-clustering-algorithm-machine-learning.html
# CNN 실습- https://github.com/jetsonai/HK_LSTMSenfuClass
(스마트공장)-실습 (Pretrained Image Classification Model) [1]/ImageNet-1K /
@Dataset / List of Class Indices
https://deeplearning.cms.waikato.ac.nz/user-guide/class-maps/IMAGENET/
# Data Augmentation
# LSTM 실습 - https://github.com/jetsonai/HK_LSTMSenfuClass/tree/main/Day1
#ws@raspberrypi:~ $ cd ugv_rpt
-bash: cd: ugv_rpt: No such file or directory
ws@raspberrypi:~ $ cd ugv_rpi/tutorial_en/
ws@raspberrypi:~/ugv_rpi/tutorial_en $
ws@raspberrypi:~/ugv_rpi/tutorial_en $ ls
#서울형 메타버스 플랫폼 소개-
https://www.sen.go.kr/user/bbs/BD_selectBbs.do?q_bbsSn=1028&q_bbsDocNo=20240321143845598
#https://brunch.co.kr/@eastgo/1564
#https://metavexpo.com/visitor/visitor_guide/
#
https://jml-note.tistory.com/entry/Complex-YOLO-Real-time-3D-Object-Detection-on-Point-Clouds
Complex-YOLO
3D data를 이용해 2D 인식을 3D로 확장한다는 것은 굉장히 자연스럽고 간단하게 들릴지 모르지만 Real-Time이라는 관점에서 많은 문제가 발생합니다. Convolution 비용이 큰 연산이고 2d 이미지에서도 빠르고 효율적으로 수행하기 위해 많은 노력이 필요했습니다. 이 연산을 단적으로 point cloud 데이터에 그대로 적용한다면 데이터 자체의 Sparsity, Distribution Irregularity, Locality 등의 문제로 GPU에서 엄청난 비효율을 초래하게 됩니다. 이 문제를 Object Detection에서 성공적으로 해결한 연구가 Complex-YOLO입니다.
https://www.mathworks.com/help/lidar/ug/lidar-object-detection-using-complex-yolov4.html
https://www.ultralytics.com/ko/blog/understanding-3d-object-detection-and-its-applications
# https://cloud.lidarvisor.com/#/auth/login // https://wikidocs.net/163163
#
#
#
#
- 포인트 클라우드는 3차원 공간 정보를 표현하는 데이터로, 각 점이 3차원 좌표로 나타납니다.
- 점들의 집합은 물체의 표면 또는 형태를 나타내며, 다양한 형태의 3D 모델을 생성하는 데 사용됩니다.
- LiDAR, 3D 스캐너, 사진 측량 등 다양한 기술을 통해 포인트 클라우드 데이터를 수집할 수 있습니다.
- 로봇, 자율 주행, 증강 현실, 3D 모델링 등 다양한 분야에서 활용됩니다.
- Point Cloud Library(PCL)는 포인트 클라우드 데이터를 처리하기 위한 라이브러리로, 필터링, 정렬, 객체 인식 등 다양한 기능을 제공합니다.
- 빛을 사용하여 거리 측정 및 3차원 데이터를 생성하는 기술
- 3차원 정보를 담은 RGB 이미지와 깊이 정보를 동시에 수집하는 카메라
- 동시에 위치 추정 및 지도 구축을 수행하는 기술
- 포인트 클라우드 데이터를 3D 격자 형태로 변환하는 과정
- 두 개 이상의 포인트 클라우드 데이터를 동일한 좌표계에 정렬하는 과정
- 🛠️ Git 소개 Git은 작은 프로젝트부터 매우 큰 프로젝트에 이르기까지 속도와 효율성을 가지고 모든 것을 처리하기 위한 무료 오픈 소스 분산 버전 관리 시스템입니다. source
- 🌍 Git과 GitHub의 차이 Git은 버전 관리 시스템이고, GitHub는 Git으로 관리하는 프로젝트를 올릴 수 있는 플랫폼입니다. source
- 📥 Git 다운로드 다양한 운영 체제를 위해 Git을 다운로드할 수 있는 공식 웹사이트에서 접근할 수 있으며, GUI 도구도 포함되어 있습니다. source
#
#
#
#
댓글 없음:
댓글 쓰기