ai 만들어보기(feat ai artwork lab)43 [튜토리얼]우리가 원하는 배경과 인물 그대로 이미지를 생성해보자!!! <ControlNet 깨부수기 -3-> 예전에 했던 손가락 보정에서 이용했던 콘트롤넷ControlNet의 소프트엣지Softedge 기억하시죠? 그거 활용법을 하나 더 공유해보려고 합니다. 이미 지난 번 손가락 편에서 통밥으로 이걸 이용하면 이런 게 되겠다! 하시는 분들도 있겠지만, 아닌 분들을 위해서 활용법 하나 더 다룹니다. 스테이블 디퓨전으로 이미지를 생성하다보면 느끼는 게 이거 배경과 인물을 완벽하게 원하는 형태로 가져오는 게 어렵다는 겁니다. 우리가 원하는 인물의 포즈 + 대략적인 배경을 가져와서 그대로 뽑을 수 있다면 어떨까요!??? 콘트롤넷 소프트엣지를 이용하면 가능하다는 겁니다! 역시나 엄청 쉬우니까 가보시죠. 1. 원하는 배경과 인물(포즈나 자세, 표정 등 중심)의 이미지 가져오기 저는 일단 아래와 같은 아이돌 지수님.. 2023. 7. 24. [튜토리얼]LoRA가 뭔데? 옷을 단계적으로 입히고 벗겨보자! 19금 아님!! <LoRA 깨부수기 -1-> [튜토리얼] 100% 무료 내 컴퓨터(windows)로 인공지능 이미지 만들기https://stable-diffusion-art.com/install-windows/ 요 내용을 기반으로 합니다. 인공지능 이미지 생성, 제일 쉬운 건 역시 요즘 우후죽순 생기는 이미지 생성 사이트를 이용하는 겁니다. 그런데 그거 좀 제istor-y.tistory.com인공지능 이미지 생성을 하다보면 LoRA를 아주 많이 접하게 될 겁니다. 보니까 civitai에서도 그렇고 가장 많이 쓰이는 파인튜닝 기법인 것 같습니다. 일단 간단한 사용방법을 알아보고 이게 대체 어떻게 이렇게 작동하는 건지 이해해보도록 합시다!civitai 가보시면 LoRA는 아주 다양한 모델을 확인할 수 있죠. 별의 별게 다 있죠. 그중에서도 꽤 재.. 2023. 7. 20. [튜토리얼]신기방기! 인공지능 이미지의 배경을 확장해보자!!!! <아웃페인팅Outpainting -1-> 튜토리얼 순서가 뒤죽박죽인 건 제가 충동적으로, 의식의 흐름대로 올리고 있기 때문입니다. 제가 더 알고 싶어하는 것 위주로 먼저 올라갑니다. 양해바랍니다..;;;ㅎㅎ그래도 차례대로 쭉 보면 아마 다 도움이 되고 실력이 느는 걸 느낄 수 있으리라 믿습니다. 이번엔 인공지능 생성 이미지를 좀 더 그럴싸하게 만들어주는, 뭐랄까? 인공지능이 그린 티가 안 나게 하는데 아주 유용한 기능인 Outpaint를 소개해볼까 합니다. 이미지 몇 번 생성해봤으면 아 사이즈가 좀 아쉽네. 혹은 좀 더 넓은 배경, 다른 비율로 그림을 그려보고 싶은데 좀 애매하네~ 이런 생각해보셨을 겁니다. 사이즈 하니까 upscale을 먼저 했어야 할 거 같긴 한데;;ㅋㅋ 그건 전에 한 번 언급은 했고, 이게 더 신기하니까 ㅋㅋ일단 가봅시.. 2023. 7. 17. [튜토리얼]초초강력 최신 기술을 당장 사용해보자!!!!! <SDXL 0.9> 2탄! [튜토리얼] 100% 무료 내 컴퓨터(windows)로 인공지능 이미지 만들기 (tistory.com) [튜토리얼] 100% 무료 내 컴퓨터(windows)로 인공지능 이미지 만들기 https://stable-diffusion-art.com/install-windows/ 요 내용을 기반으로 합니다. 인공지능 이미지 생성, 제일 쉬운 건 역시 요즘 우후죽순 생기는 이미지 생성 사이트를 이용하는 겁니다. 그런데 그거 좀 제 istor-y.tistory.com 지난 번엔 또다른 sdxl 전용 webui를 설치했는데 이번엔 우리가 이미 잘 사용하고 있는 1111 webui를 이용해 SDXL 0.9 데모를 이용하는 방법을 알아보겠습니다!! 당연히 굳이 새로운 ui를 쓰는 거보다 훨씬 낫죠. 물론 더 무거워질 .. 2023. 7. 17. [튜토리얼]인공지능한테 내 의도 설명하기 (프롬프트 기본) 인공지능 생성 이미지에 대해 많이 알고 이해하는 것도 좋지만, 실상 사용자 입장에선 이 프롬프트 쓰는 법이 제일 중요하다고 할 수 있습니다. 어차피 자연어를 처리한다는 건 우리가 평소 쓰는 언어 그대로 기계가 알아먹는다는 걸 전제하기 때문에 정답은 없습니다. 그래도 와중에 기본적으로 지켜야 할 룰이나 좀 더 기계가 잘 알아먹는 표현 같은 게 있기 때문에 그걸 알아보자는 겁니다. 가장 중요한 건 역시 나의 의도를 최종 이미지에 최대한 많이 적용하는 겁니다. 인공지능 이미지 궁극의 지점은 역시 내가 머릿속에 상상한 이미지와 99.9% 일치하는 뽑는 거겠죠. 기본적인 내용은 여길 참고합니다. https://stable-diffusion-art.com/how-to-come-up-with-good-prompts-.. 2023. 7. 15. [Tip]프롬프트에 가중치 부여하기! 이전 튜토리얼에서 프롬프트의 키워드를 강조하거나 제외하려면 (키워드) 혹은 [키워드]를 사용하면 된다는 내용이 있는데 이 부분을 한 번 알아봅시다. 프롬프트는 복잡해지기 마련입니다. 한 장면 안에 남자, 여자, 개, 고양이가 등장할 수도 있죠. 여기서 특정 사물을 좀 더 강조하고 싶다면? 특정 사물은 좀 덜 나오게 만들려면? 사용방법은 아주 간단합니다. 위처럼 괄호 안에 키워드를 삽입하면 강조가 됩니다. 샘플링 단계에서 괄호 안의 단어에 가중치를 부여해서 그 특성을 강조하게 되는 거죠. 반대로 대괄호는 가중치를 낮춰서 그 특성을 약화시키는 겁니다. 사용법은 간단하죠. 괄호 안에 키워드 넣으면 되는데, 괄호와 대괄호는 연달아 쓸 수 있습니다. (키워드) ((키워드)) [키워드] [[키워드]] .. 2023. 7. 13. [튜토리얼]이미지의 크기를 "초고퀄로" 늘려보자! <upscale -2-> <ControlNet 깨부수기 -3-> 전에 했던 방식은 따로 확장기능extensions을 사용하지 않고 스테이블 디퓨전stable difussion 자체에 내장된 업스케일러upscaler를 이용했었죠. 제일 쉽고 간단하기 때문입니다. 그래도 뭐 결과물은 그럭저럭 괜찮게 나오거든요. 하지만 이미 테스트 해보신 분들은 아시겠지만, 원본 이미지의 퀄리티가 떨어지는 경우는 물론 실제로 100% 이상 확대해보면 상당히 픽셀이 깨지거나 뭉개지거나 작위적인 CG느낌이 난다는 걸 알 수 있을 겁니다. 좀 더 세부적인 디테일을 이미지에 추가하면서 사이즈를 키울 수는 없을까요? 키울 수 있습니다. ㅋㅋ 단 이번엔 확장기능에 콘트롤넷ControlNet까지 사용해야 합니다. (그래서 콘트롤넷 깨부수기도 추가함 ㅋㅋ)그래도 그 결과물을 보면 정말이지 이.. 2023. 7. 13. [Tip]갸꿀팁 대방출 스테이블디퓨전 cheat sheet!! 역시 양덕은 못 이깁니다. 스테이블 디퓨전에 프롬프트 유난히 강력한 것들이 있죠. 예를 들어 유명인, 반고흐 같은 유명한 아티스트의 이름 같은 거요. 그런데 놀랍게도 어떤 존경스러운 양덕께서 많은 테스트를 거쳐 그 강력한 프롬프트를 정리를 해놨습니다. 바로 보겠습니다. 아래 사이트 접속해보세요. https://supagruen.github.io/StableDiffusion-CheatSheet/#Arcimboldo-Giuseppe Stable Diffusion 1.5 - Cheat Sheet Image Metadata This will check an image for embedded Stable Diffusion data. Drop Image Here Prompt Examples - Art Med.. 2023. 7. 12. [튜토리얼]아.. 반 고흐가 내 초상화 그려줬으면 좋겠다 <dreambooth 깨부수기 -1-> 지금까지는 그냥 프롬프트를 입력해서 그림을 생성해왔습니다만..... 그렇다면 한 걸음 더 나아가서~ 스테이블 디퓨전에 있는 모델이 학습한 방대한 데이터 기반으로 내가 가진 사진, 이미지를 합성, 재구성 할 순 없을까?? 이를 테면 내 증명사진을 반 고흐 스타일로 다시 그릴 순 없을까!? ㅇㅇ 네 됩니다. 여러분 사진, 친구 사진, 애인 사진 뭐든 다 가능합니다. 그렇게 해주는 도구가 있그든요~? 무려 구글에서 드림부스Dreambooth라는 스테이블 디퓨전 훈련Training 도구를 개발했습니다. 그리고 그건 아주 필연적으로 우리가 사용하는 Web UI의 Extension으로도 나와버렸답니다. ㅋㅋㅋ 그것도 너무 쉽고 편한~~~ 그렇다면 드림부스는 어떤 방식으로 기존에 있는 모델을 훈련하.. 2023. 7. 12. [튜토리얼]인공지능 생성 이미지는 손가락이 쫌.... 아닌데요!!??? <ControlNet 깨부수기 -2-> 재미있는 거 있어서 가져와 봅니다. 이분 거 참고했습니다. (https://www.youtube.com/watch?v=UgVOQTjahxc&t=302s&ab_channel=SahiNama) 아니 왜 인공지능 생성 이미지는 손가락이 엉망이라고들 하잖아요? 실제로 뽑다보면 그런 일이 빈번히 발생하기도 하고... 그런데 요즘에는 이런저런 보정방법들이 나와서 굳이 일부러 손가락을 강조할 수도 있습니다. 우리에겐 뭐가 있다? ControlNet이 있잖아요. 제가 뽑은 이미지부터 보시죠. 이것도 뭐 완벽하진 않은데 아무튼 뭐 괜찮잖아요? ㅋㅋㅋ 손가락 살아있지 않나요? 더 잘 만지면 더 제대로 뽑힙니다. 어떻게 만졌는지 한 번 알아봅시다. 너무 쉽거든요. 이거. 1. 기본 프롬프트 설정 일단 손가락이 잘 나.. 2023. 7. 11. [튜토리얼]아직도 돈 내고 chatGPT 쓰시나요? TEXT생성계의 스테이블 디퓨전! <oobabooga 깨부수기 -1-> 네. OpenAI의 chatGPT가 물론 지금으로서 선택할 수 있는 최고의 옵션인 건 맞습니다. 특히 한글 사용자라면 더욱 그렇죠. 하지만 월 20달러의 비용은 마냥 싸다고만 볼 수는 없죠. 무엇보다 지천에 오픈소스로 LLM모델이 널려있는 요즘 같은 때에 말입니다. 딱히 검열도 안 하는 uncensored 모델(욕하면 같이 욕박음 ㅎㄷㄷ)도 많고요. 근데 문제는 저런 모델 돌리려면 파이썬도 좀 다룰 줄 알고 판다스니 넘파이니 트랜스포머니 뭐니 AI개발에 대해서도 알아야 합니다. chatGPT같은 UI는 언감생심 꿈도 못꾸고, 암울한 터미널 창에 뜨는 코드형식 답변받아야 합니다. ㅋㅋㅋㅋ우리 같은 비개발자들 친화적이 아니죠. 그렇다고 구경만 할 거냐? 아니죠. 스테이블 디퓨전처럼 오픈소스 LLM(거.. 2023. 7. 11. [튜토리얼]최신유행 따라잡기! QR코드를 꾸며보자!!! <img2img, ControlNet> 오늘은 좀 쉬어가는 코너로 요즘 여기저기 커뮤니티에서 유행하는 거 하나 다뤄보겠습니다. 이미 보신 분 있을지도 모르겠는데 스테이블 디퓨전Stabel Diffusion의 img2img, ControlNet을 이용해서 QR코드를 말 그대로 간지가 철철나게 꾸밀 수 있습니다. 잘만 만들면 진짜 멋지니까 명함 같은데 박으면 딱 좋겠습니다. 결과물부터 보시겠습니다. 한 번 찍어보세요. 제 개인 홈피로 연결됩니다.ㅋㅋㅋ 요건 우리 카페~ 쉬어가는 코너니까 구구절절 안 하고 걍 빠르게 가보겠습니다. 1. QR코드 만들기 당연히 일단 QR코드부터 만들어야겠죠? https://34qr.com/en/ 2023. 7. 10. [튜토리얼]초초강력 최신 기술을 당장 사용해보자!!!!! <SDXL 0.9> 이거 제가 언급하던 Stable Diffusion 2.X 버전하고는 차별화된 진정한 최신 버전이란 것부터 언급하겠습니다. 이게 4월달에 베타버전이 나왔고 고작 2주 전에 0.9 정식 버전을 출시한 겁니다!!! 일단 근본부터 완전히 차이가 나는 게 우리가 쓰는 SD 1.5 버전이 기본 학습 및 생성 이미지가 512 x 512이고 2.1로 가봐야 768입니다. 그런데 SDXL은 XL답게! 기본 이미지 해상도가 무려 1024x1024 입니다! 진짜 엄청나죠. 업스케일둥절? 이 비교 이미지부터 보시죠. 1.5, 2.1 버전도 아니고 4월달 출시했던 SDXL 베타랑 0.9 버전이 이 정도 차이를 보입니다. 프롬프트도 보시면 심플한데 저 정도 퀄의 이미지를 단박에 뽑아냈다는 겁니다. 모델의 차원이 다른 걸로 보.. 2023. 7. 10. [튜토리얼]이미지의 크기를 내멋대로 늘려보자! <Upscale -1-> + GAN 이해해보기~ 이건 기본 중의 기본이니까 한 번 짚고 넘어가봅시다. 일단 1편은 역시나 제일 간단한 방법~ 좀 더 큰 사이즈로 학습한 파인튠 모델로 이미지를 뽑는다고 해도 2k, 4k 급의 고화질의 이미지를 뽑는 건 어려운 일이며 애초에 학습을 그렇게 큰 이미지로 했다가는 아주 시스템 자원이 한도 끝도 없이 필요해질 겁니다. 그래서 스테이블 디퓨전 기본 설정 생성 이미지 자체도 512X512 사이즈밖에 안 되죠. 그러니 좀 쓸만한 이미지 해상도를 얻기 위해 upscale은 필수불가결입니다. 기본적으로 생성할 때 Hires.fix라는 옵션을 택해서 upscale까지 한 방에 진행할 수도 있지만 별로 권하지는 않고요. 다들 추천하듯 extras탭을 이용해서 진행하도록 하겠습니다. 루틴은 역시 너무 쉽고 단순합니다... 2023. 7. 7. [튜토리얼]신기방기! 이미지 속 인물의 나이를 멋대로 바꿔보자! <Text Inversion 깨부수기 -1-> 이게 특정 텍스트 인버전Text Inversion을 주제로 다뤄서 단순 소개로 할까, 튜토로 할까 하다가 나름 내용이 있어서 튜토리얼로 한 번 뽑아봅니다. 튜토를 통한 자연스러운 기능 이해를 목적으로 하기 때매... 음 암튼 텍스트 인버전이 뭔지 시작부터 구구절절 설명하면 재미가 없으니까 일단 제목대로 이걸 이용해서 이미지 속 인물의 연령대부터 막 바꿔봅시다. 아주~ 신기방기하니까 따라해보셈~~ 순서는 다음과 같습니다. 1. civitai 가서 나이 조절age-slider 텍스트 인버전text inversion 다운받기 2. 프롬프트Prompt에 텍스트 인버전text inversion 적용하기 끝입니다. 역시 심플 그 자체, 하지만 효과는 아주 놀라우리만큼 좋습니다. 한 번 보시죠. 1. .. 2023. 7. 5. [튜토리얼]인공지능 생성이미지 인물의 포즈를 내 멋대로! <ControlNet 깨부수기 -2-> 가지고 있는 기능이 많고 폭넓기 때문에 하나하나 설명하려고 든다면 한도 끝도 없이 길어질 수도 있는 게 ControlNet입니다. 다 알면 좋지만, 일단 제 기준에서 재미나고 필요한 기능 위주로 짧게 하나씩 정리해보도록 하겠습니다. 그래서 제가 ControlNet을 어떻게든 써보려고 한 이유인 포즈 잡기 부터 일단 정리해보겠습니다. 역시나 원리보다는 현상 위주의 튜토리얼로서 긴 설명보다는 그냥 이대로 따라해서 결과물이 나오는 걸 우선합니다. (그래도 길어질 듯...;;) 3줄 요약 프로세스 먼저. 1. 레퍼런스 포즈 이미지 입력 2. ControlNet 작동 3. 프롬프트 입력 및 이미지 생성 끝입니다. 1. 레퍼런스 포즈 이미지 입력 이건 뭐든 좋습니다. 저 사진의 포즈를 한 이미지를 생.. 2023. 7. 4. [튜토리얼]인공지능 생성이미지를 내 의도에 가깝게 만드는 강력한 도구! <ControlNet 깨부수기 -1-> web UI의 확장extension으로 설치해서 사용이 가능한 ControlNet이라는 게 있습니다. 이걸 이용하면 인공지능 생성 이미지를 좀 더 내 뜻대로 좌지우지 할 수 있죠. 놀랍게도 이미지 속 모델의 포즈 같은 걸 내 뜻대로 할 수가 있습니다. 그뿐만 아니라 생성 이미지의 뎁스맵 같은 것도 뽑을 수 있고, 생성된 이미지의 포즈를 참조refrerence해서 같은 포즈의 이미지를 뽑을 수도 있습니다. 이것도 물론 100%는 아니지만 아주 강력한 도구인 건 확실하죠. 이게 자세히 알아보자면 진짜 끝도 없으니까 시간 날 때마다 한 스텝씩 하겠습니다. 일단 저도 테스트 중이라... ㅎㅎ 1편은 우선 ControlNet 설치부터 시작해보겠습니다. 아주 쉽습니다. web UI 자체가 기능이 많아 복잡해.. 2023. 7. 3. [튜토리얼]사진은 지겹다! 인공지능으로 예술적인 영상을 만들어보자! <deforum 깨부수기 -1-> 스테이블 디퓨전stable diffusion web UI의 확장기능extension 중에 Deforum이라는 게 있습니다. 기능을 간략히 말하자면 스테이블 디퓨전의 이미지를 배치렌더해서 영상을 제작할 수 있도록 하는 기능입니다. 이것말고도 영상을 만드는 방법은 더 있습니다. video를 입력받아서 할 수도 있고, Deforum이 아닌 ControlNet의 추가기능을 이용할 수도 있습니다. 일단 제가 보기에 Deforum이 당장 사용하기 제일 간단하고 쉬워 보여서 소개합니다. 역시나 스텝바이스텝으로 그냥 따라가는 튜토리얼입니다. 원리보단 현상 위주~ 오늘 만들 영상부터 봅시다. 압니다. 예술이죠. 그냥 튜토리얼 따라만 하면 이 정도는 거의 뭐 원클릭 수준으로 간단하게 나옵니다. ㅋㅋ 전체 과정 요약.. 2023. 7. 3. [튜토리얼]충격과 공포! 인공지능으로 찐 레알 ''고화질 동영상'' 만들기!!!! <text2video -1-> 전에 올린 deforum으로 동영상 만들기는 언급했듯이 몰핑이나 트랜지션 효과에 가깝기 때문에 진짜 '영상'을 만든다고 하기에는 살짝 애매한 감이 있었습니다. 생성 방식도 바뀔 이미지에 대한 프롬프트를 입력하는 식이었죠. 그런데 이번엔 진짜로! 레알로! '영상의 내용을 입력'해서 우리가 말하는 그 움직이는 프레임 '영상'을 만들 수 있는 방법을 공유합니다. 전에도 있던 건데 이번에 추가 훈련 모델이 나왔는데 엄청 업그레이드가 된 것 같아서 한 번 저도 테스트해보고자 올립니다! 결과물부터 보시죠... 충격과 공포! 인공지능으로 찐 레알 ''고화질 동영상'' 만들기! 아주 엄청나진 않지만, 제가 말한 찐 동영상을 뽑는다는 게 뭔지는 확실하게 와닿으셨을 겁니다. 프롬프트에 걍 바닷속 문어Octopus un.. 2023. 6. 30. [이해해보기]stable diffusion은 대체 어떤 과정을 거쳐 문자(자연어)를 이미지로 토해내는가!? 3줄 요약 있음 저 같은 문외한, 문과글쟁이 관점에서 한 번 정리해보는 입니다. 저는 정말이지 대체 이게 어떤 과정을 거쳐서 이렇게 되는 건지 너무 궁금하더라고요. 그래서 이것저것 자료를 찾아보고 chatGPT한테 물어도 보고 한 뒤에 -_-;; 저 또한 '대강 이해한' 내용을 이곳에 공유합니다. 사실 좀 후회한 게 걍 그림이나 줄창 뽑을 걸 괜히 팠네 싶을 정도로 문외한에겐 쉽지 않은 내용이더군요. 뭐든 단순하고 쉽게 제 스타일대로 풀어보겠습니다. 물론 너무 단순화, 쉬워지면 원래 의미나 기능을 곡해할 위험이 있지만, 일단 말 그대로 문외한이 stable diffusion으로 그림을 뽑는 원리를 대충이나마 알 수 있는 걸 목적으로 하기 때문에 무조건 쉬운 걸 우선으로 하겠습니다. 그렇게라도 이해를 하고 있으면 아무.. 2023. 6. 29. 이전 1 2 3 다음