강의 개요
생각의 연결고리, 즉 CoT(Chain of Thought) 프롬프트는 복잡한 작업을 최종 해결을 향한 일련의 논리적 단계로 세분화하여 인간과 유사한 추론 과정을 시뮬레이션하는 인공 지능의 접근 방식입니다. 2024. 6. 25. — 대형언어모델의 사고 능력을 극대화하는 핵심 기법의 하나가 바로 CoT(Chain-of-Thought)입니다. CoT는 AI를 인간처럼 “생각”하도록 만드는 기법입니다.
올라마
3-1-2. 올라마(Ollama) 모델 다운로드
올라마(Ollama) 모델을 다운로드하는 명령은 아래와 같이 모델 이름을 입력하면 됩니다. 모델 가중치가 다운로드되어 설치가 되고 터미널에서 사용자의 입력을 받을 수 ...
Download Explore models. Available for
macOS,
Windows, and
Linux. © 2025 Ollama. Download Blog Docs GitHub Discord X (Twitter) Contact Us · Blog · Download ...
2024. 6. 27. — [AI] Ollama 다운로드 및 모델 다운 방법 · 올라마 설치 후 확인 cmd에 ollama 입력 · 올라마에서 모델 명 복사 · 현재 Ollama에 다운 받은 모든 모델 출력.
2025. 5. 31. — Ollama는 DeepSeek-R1, Qwen 3, Llama 3.3, Qwen 2.5‑VL, Gemma 3 등 다양한 모델을 로컬에서 실행할 수 있습니다. 먼저 Ollama 다운로드 웹사이트로 이동 ...
2024. 10. 21. — Huggingface 모델 다운로드. 모델을 클릭하시면 다음과 같은 화면으로 넘어옵니다. 여기서 1.Files and versions 클릭, 모델 부분에서 2.다운로드 아이콘 ...
2024. 8. 7. — 모델 다운로드 : 터미널 창에서 "ollama run llama3.1"명령어를 통해 라마 3.1 모델 다운로드; 모델 실행 : 터미널 창에서 "ollama run llama3.1 ...
2025. 7. 31. — 그리고 나서, 아래 그림 처럼 "deepSeek‑r1" 입력해서 찾아서 다운받습니다. 1.png 올라마 모델 검색 창. 그러면 아래처럼 모델 다운로드 받게 되고, ...
2024. 11. 18. — 올라마(Ollama) 다운로드 및 설치 방법 ... 1. Ollama에 접속한다. 2. [Download for Windows]를 클릭한다. (애플을 사용하는 사람은 [macOS]를 클릭한다.).
다운로드(https://ollama.com/download) 페이지에서 운영체제(Linux, Mac OS, Windows)에 맞는 설치파일을 다운로드합니다. 설치파일을 실행하여 설치를 완료합니다. 설치 ...
2024. 10. 15. — Ollama를 실제로 사용함에 있어서 Ollama의 어플리케이션을 실행한 후에 아래와 같은 명령어를 실행하면 LLM 모델을 설치 할 수 있습니다. $ ollama run ...
분석 실습 환경 요약
분석 요약
No
구분
분석 목적 (현장 이슈, 목적)
1
2
3
내용
- 현장이슈 : 콘택트렌즈의 도수에 영향을 주는 요인이 다양하고 작업자의 숙련도에 따라 금형조합 별 도수 적중률이 크게 변화하는 문제가 있다.
- 목적 : 콘택트렌즈의 도수와 금형조합 간의 상관관계를 분석을 통해 콘택트렌즈의 도수를 예측하고 최적화 알고리즘을 이용하여 최적의 금형조합을 구한다.
- 데이터셋 형태 : 텍스트와 수치형 데이터로 구성된 정형 데이터셋
- 수집방법 : MES DB, PLC 인터페이스 방식 혼용(Lot 투입/완료 시)
데이터셋 형태 및 수집방법 (csv, json, image 파일 등)
- 데이터셋 파일 형식(확장자): CSV
- 주요 수집 데이터 : 금형조합, 금형 곡률, 도수 등
데이터 개수 데이터셋 총량
- 데이터 개수: row수 175,102개, column수 19개
-데이터셋 총량: 25.2MB
G202
강의 개요
분석 실습 환경 요약
분석 요약
No
구분
분석 목적 (현장 이슈, 목적)
1
2
3
내용
- 현장이슈 : 콘택트렌즈의 도수에 영향을 주는 요인이 다양하고 작업자의 숙련도에 따라 금형조합 별 도수 적중률이 크게 변화하는 문제가 있다.
- 목적 : 콘택트렌즈의 도수와 금형조합 간의 상관관계를 분석을 통해 콘택트렌즈의 도수를 예측하고 최적화 알고리즘을 이용하여 최적의 금형조합을 구한다.
- 데이터셋 형태 : 텍스트와 수치형 데이터로 구성된 정형 데이터셋
- 수집방법 : MES DB, PLC 인터페이스 방식 혼용(Lot 투입/완료 시)
데이터셋 형태 및 수집방법 (csv, json, image 파일 등)
- 데이터셋 파일 형식(확장자): CSV
- 주요 수집 데이터 : 금형조합, 금형 곡률, 도수 등
데이터 개수 데이터셋 총량
- 데이터 개수: row수 175,102개, column수 19개
강의 개요 분석 실습 환경 요약 분석 요약 No 구분 내용 연관규칙(Association rule), XGBoost 알고리즘 4 분석적용 알고리즘 알고리즘 간략소개 - 연관규칙(Association rule): 연관규칙 마이닝은 자료에 있는 항목들 간의 어떤 관계가 있는지 찾 기 위한 알고리즘으로 비지도 학습에 속한다. 금형군, 설비번호, 시퀀스, 목표도수를 기준으로 과거 생산이력에서 도수가 일치하는 데이터의 연관규칙을 분석하여 연관성이 가장 높은 금형조합을 탐 색한다. - XGBoost: XGBoost 회귀분석은 의사결정나무 기반의 앙상블기법 중 하나로 그레이디언트 부스 팅 방식을 사용하며, 성능이 뛰어나기 때문에 널리 사용되는 알고리즘이다. XGBoost 모델은 변수 중요도(Variable Importance)를 나타낼 수 있어 변수의 영향력을 파악할 수 있다.
LLM 스튜디오(데이터 분석)- https://brochure.konantech.com/llm/
2025. 1. 17. — 04장에서는 파이썬
데이터 분석의 양대 산맥이라 할 수 있는
NumPy와
Pandas 라이브러리를 배우겠습니다. NumPy (Numerical Python): 다차원 배열(ndarray) ...
코난 LLM 스튜디오는
생성형 언어 모델 코난 LLM을 빠르게 프로토타이핑하고 테스트 해볼 수 있는 도구입니다. 코난 LLM 스튜디오 시연영상.
Konan Technology.
Run gpt-oss , Qwen , Gemma , DeepSeek on your computer. Explore local LLMs. Copy LM Studio Download Link.
2024. 9. 20. — LM Studio는 로컬 컴퓨터에서 대규모 언어 모델(LLM)을 쉽게 실행하고 실험할 수 있게 해주는 데스크탑 애플리케이션입니다.
젬마(인터넷없이도 가능)
2024. 2. 21. — 젬마(Gemma)는 제미나이 개발의 핵심 기술과 연구를 기반으로 제작된 최첨단 경량 오픈 모델군입니다. 구글 딥마인드와 구글의 다양한 부서가 협력하여 ...
2025. 3. 21. — 1. LM Studio 바로가기 │다운로드 · 2. 설치 · 3. 실행 · 4. 디스커버 · 5. PC 사양과 적합한 모델 · 6. "젬마 3 1B" 선택 및 다운로드 · 7. "젬마 3 1B" ...
Gemma is a collection of lightweight, state-of-the-art open models built from the same technology that powers our
Gemini models.
누락된 검색어:
다운로드 | 필수 포함 항목:
다운로드Gemma는 가벼운 생성형 인공지능(AI) 개방형 모델의 집합입니다. Gemma 모델은 애플리케이션과 하드웨어, 휴대기기 또는 호스팅된 서비스에서 실행할 수 있습니다.
Gemma는 생성형 인공지능 (AI) 모델 제품군으로, 질문 답변, 요약, 추론을 비롯한 다양한 생성 작업에 사용할 수 있습니다. Gemma 모델은 개방형 가중치로 제공되며 ...
2025. 6. 17. — 이 가이드는 Ollama 설정, Gemma 3 다운로드 및 기기에서 실행하는 방법을 안내합니다. ... 오늘 무료로 다운로드하여 Gemma 3 프로젝트를 향상시키세요!
2024. 2. 23. — 구글이 2024년 2월 21일에 Gemma를 공개했다. Gemma는 구굴의 AI인 Gemini의 경량화 버전이다. Gemma의 장점은 오픈 소스라는 것이다!