2025년 9월 8일 월요일

유료 설정 ,코랩, GPT - MCP = 커넥터 / n8n / 제조데이터와 데이터 전처리 / kamp / 일래스틱서치(Elasticsearch)

 

코랩https://colab.research.google.com/?hl=ko#scrollTo=OwuxHmxllTwN

마크다운 언어 - 마크다운(Markdown) 사용법 Gist https://gist.github.com › ihoneymon Markdown은 텍스트 기반의 마크업언어로 2004년 존그루버에 의해 만들어졌으며 쉽게 쓰고 읽을 수 있으며 HTML로 변환이 가능하다. 특수기호와 문자를 이용한 매우 ... 마크다운 나무위키 https://namu.wiki › 마크다운 마크다운 (Markdown)은 마크업 언어의 일종으로, 존 그루버(John Gruber)[1]와 애런 슈워츠가 만들었다. 온갖 태그로 범벅된 HTML 문서 등과 달리, 읽기도 쓰기도 쉬운 ... 마크다운(MarkDown) 사용법 총정리 HEROPY.DEV https://www.heropy.dev › ... 2024. 1. 3. — 마크다운 문법 대신, HTML을 직접 사용(Raw HTML)할 수 있습니다. 앞서 살펴본 밑줄 추가와 같이, 마크다운 문법에서 지원하지 않는 기능을 사용할 때 ...

on Premise 환경 vs. Cloud 환경 ??  하이브리드 환경

wsl 윈도우 서버 리눅스 환경 / 터미널 / 설치??

2023. 3. 31. — WSL 은 Linux 와 Window의 workflow를 seamless 하게 통합하여 두 OS간의 파일 공유, 리소스 공유가 자유롭다. WSL 을 부연설명 해보자면, WSL 설치 순간 ...




The first semiconductor company to combine best-in-class hardware, software, and cloud services – transforming how connected products are built, deployed, and ...

노르딕 세미컨덕터, 초저전력 ...

유니퀘스트는 빠르게 성장하고 있는 한국의 설계 및 제조 분야에 노르 ...

Nordic DevZone

Support + - Nordic Q&A - Blogs - ...

About Nordic

Nordic Semiconductor is a Norwegian fabless ...

Nordic Developer Academy

The interactive online learning platform here to equip ...

유료 설정  GPT - MCP = 커넥터

https://www.ollama.com/

 

AI -멀티에이전트로써, https://app.n8n.cloud/register?ps_xid=VmFbVIsJ8kmkHp&ps_partner_key=MzJlYjhiMTZhN2Q0

 n 8 nn8n(엔에잇엔)은 코딩 없이 여러 애플리케이션과 서비스를 연결하여 복잡한 업무 프로세스를 자동화하는 오픈 소스 워크플로우 자동화 도구입니다. 사용자는 시각적 인터페이스를 통해 노드를 연결하여 워크플로를 만들고, 개발자가 아니어도 다양한 앱을 연동해 데이터 통합, 이메일 자동화, 보고서 생성 등을 수행할 수 있습니다. n8n은 무료 버전과 유료 구독 플랜을 제공하며, 셀프 호스팅이나 클라우드 서비스 등 다양한 방법으로 사용

온프레미스 제어 또는 클라우드의 편의성을 활용하여 호스팅하세요. 

n8n은 다른 어떤 도구보다 다단계 AI 에이전트를 구현하고 앱을 통합할 수 있는 

자유를 제공

주요 특징
  • 노코드/로우코드:
    개발 지식이 없어도 마우스 클릭만으로 워크플로우를 구축할 수 있습니다. 
  • 오픈 소스:
    완전한 자유를 제공하며, 커뮤니티 에디션을 통해 무료로 사용할 수 있습니다. 
  • 다양한 연동:
    구글 스프레드시트, 슬랙, 디스코드 등 수많은 앱과 서비스를 연결할 수 있습니다. 
  • 워크플로우 자동화:
    데이터 통합, 이메일 자동화, 보고서 생성 등 다양한 반복 업무를 자동화합니다. 
  • 유연한 배포:
    개인 컴퓨터에 직접 설치(셀프 호스팅)하거나, 클라우드 서비스를 이용할 수 있습니다. 
사용 방법
  1. 1. n8n 계정 생성:
    n8n 공식 웹사이트 또는 클라우드 서비스에서 무료로 시작할 수 있습니다. 
  2. 2. 워크플로우 생성:
    시각적 인터페이스에서 '노드'를 드래그 앤 드롭하여 앱과 서비스를 연결합니다. 
  3. 3. 자동화 설정:
    각 노드에서 수행할 작업을 설정하고 필요한 변수를 입력하여 자동화 워크플로우를 완성합니다.
  4. 4. 실행 및 모니터링:
    생성된 워크플로우를 실행하고, 오류 발생 시 알림을 받아 디버깅할 수 있습니다. 
7일 전 — n8n(읽기: 엔에잇엔[1], 소위 엔팔엔)은 독일 베를린에 본사를 둔 n8n GmbH에서 2019년에 처음 공개한 워크플로우 자동화 툴이다.


# AI 총정리 망라 / 랭킹 - 작가의 꿈을 찾습니다 / 실습 - 와이어 샤크 / 젠스파크 / 판별형 인공지능과 생성형 인공지능에 대해 - 지혜로운인생

https://brunch.co.kr/@brunch/382   / / 작가의 꿈을 찾습니다


9.08 (3) - 실습/멀티패스(Multipath),그라디오Gradio , Ollama(올라마) - 웹 인터페이스를 통해 머신 러닝 모델

# Ollama(올라마) 설치 및 사용법 - Llama 3.2 3B 사용하기

()한글()    https://hyunicecream.tistory.com/126


https://hyunicecream.tistory.com/121

https://hyunicecream.tistory.com/121#%EA%B8%B0%EB%8A%A5%20%EB%B0%8F%20%EB%8A%A5%EB%A0%A5-1-6

올라마(Ollama)는 터미널에서 ollama run <모델 이름> 명령어를 입력하여 로컬 AI 모델을 다운로드하고 실행하는 도구입니다. 설치는 웹사이트에서 운영체제에 맞는 파일을 다운로드하여 진행하며, 실행 후에는 ollama list로 다운로드한 모델을 확인하고, Ctrl + C 등으로 종료할 수 있습니다. 
1. 설치하기 
  1. 사이트 접속: 올라마 웹사이트에 접속합니다.
  2. 다운로드: 다운로드 페이지에서 본인의 운영체제(Linux, Mac OS, Windows)에 맞는 설치 파일을 다운로드합니다.
  3. 설치 완료: 다운로드한 파일을 실행하여 설치를 완료합니다.
2. 모델 다운로드 및 실행하기
  1. 터미널 실행: 설치 후 터미널(명령 프롬프트)을 엽니다. 
  2. 모델 실행: ollama run <모델 이름> 명령어를 입력하여 원하는 모델을 다운로드하고 실행합니다. 
    • 예시: ollama run llama3 (라마 3 모델 다운로드 및 실행) 
3. 사용 중 모델 종료하기 
  • Ctrl + C: 모델과 대화 중일 때 Ctrl + C를 누르면 현재 모델 실행이 종료됩니다.
4. 다운로드한 모델 확인하기 
  • ollama list터미널에서 ollama list를 입력하면 현재 다운로드된 모델 목록을 확인할 수 있습니다.
Ollama는 대규모 언어 모델(LLM)을 로컬 환경에서 쉽게 실행할 수 있도록 설계된 오픈소스 도구입니다.

모델 구조 및 성능

  • 학습 데이터: Llama 3.2는 Llama 3.1보다 더 풍부하고 다양한 데이터로 학습되었습니다. 언어의 뉘앙스, 복잡한 문맥, 문화적 맥락을 더 깊이 이해할 수 있게 되었습니다.
  • 모델 아키텍처: Llama 3.2는 더 효율적인 Attention 메커니즘을 도입하여 정보 처리 속도를 향상시켰습니다. 긴 문맥을 처리할 때도 일관성 있고 정확한 결과를 낼 수 있게 되었습니다.
  • 파라미터 최적화: Llama 3.2는 더 적은 파라미터로도 Llama 3.1과 유사하거나 더 우수한 성능을 발휘합니다. 모델 실행 시 필요한 자원과 메모리 사용량이 감소했습니다.

기능 및 능력

  • 다중 모달 기능: Llama 3.2는 텍스트뿐만 아니라 이미지도 처리할 수 있는 비전 모델(11B 및 90B 파라미터)을 도입했습니다. 이를 통해 차트, 그래프, 이미지 등을 텍스트와 함께 해석할 수 있게 되었습니다.
  • 메모리 관리: Llama 3.2는 개선된 메모리 관리 기술로 더 많은 입력 토큰을 동시에 처리할 수 있게 되었습니다. 이로 인해 긴 문장이나 복잡한 문단을 더 원활하게 다룰 수 있습니다.

출처: https://hyunicecream.tistory.com/121#Ollama(올라마)란%3F-1-1 [Café:티스토리]

'생성형 AI/생성형 AI 정보' 카테고리의 다른 글

출처: https://hyunicecream.tistory.com/126#요약 질문 답변 - Bllossom%2Fllama-3.2-Korean-Bllossom-3B-1-12 [Café:티스토리]



자동차 전면 유리 제상(Defrost/De-icing) 성능”**을 ANSYS Fluent로 해석 ///

도움말  좋은 화면 캡처예요 👍 이 이미지는 ANSYS Fluent → Setup 단계의 General 화면 이고, **“해석의 뼈대(종류·시간·좌표계)를 결정하는 곳”**입니다. 아래에서 화면에 보이는 기능을 영역별로 정확히 설명할게요. 🔧 ...