VIDEO TRANSCRIPTION
Model Context Protocol (MCP) został opracowany przez firmę Antropic jako uniwersalny protokół komunikacyjny, który umożliwia interakcję między różnymi narzędziami AI. Dzięki MCP modele AI mogą łatwo komunikować się z zewnętrznymi systemami, co otwiera nowe możliwości zastosowań praktycznych. Pomimo pewnych problemów związanych z rozwojem technologii, MCP może stać się kluczowym fundamentem dla budowy ekosystemów dla agentów AI, podobnie jak HTTP dla internetu. Warto śledzić rozwój tej technologii i eksperymentować z nią, aby zrozumieć jej potencjał.
Wyobraź sobie świat, gdzie takie modele jak Cloud albo GPT mogą nie tylko rozmawiać, ale również płynnie łączyć się z całym twoim ekosystemem cyfrowym. Przyszukiwać internet, analizować twoje pliki, łączyć się z twoimi kontami w różnych serwisach i to wszystko bez skomplikowanego kodu. To świetnie się składa, ponieważ od pewnego czasu głośno jest MCP, model Context Protocol. Nazywam się Kacper Trzepieciński i pokażę ci dzisiaj, jak ten niepozorny standard komunikacyjny może zmienić sposób, w jaki pracujemy z AI. Model Context Protocol został opracowany przez firmę Antropic, twórcę modelu Cloud, jako open source rozwiązanie i zostało to udostępnione w listopadzie 2024 roku. Antropic zauważył fundamentalny problem. Nawet najinteligentniejsze modele AI są ograniczone przez swoją izolację i brak dostępu do zewnętrznych systemów. Możemy troszkę to porównać do takiej metafory jako super bystrzy i świetli doradcy, który sądzę. . .
zamknięci w szklanym pokoju, ale nie mają rąk, aby zięgnąć świata poza szklanym pokojem. Przed MCP każda firma budowała swoje sposoby na łączenie się z narzędziami zewnętrznymi. Było to trochę tak, jakby każdy budował swój specyficzny interfejs, aby łączyć się z zewnętrznymi narzędziami, co nie ukrywajmy, było trudne, aby to łączyć ze sobą, nieefektywne i wymagało ciągłej pracy nad utrzymaniem tego systemu. A Antropik. . . Wpadł na pomysł, aby stworzyć jeden uniwersalny protokół komunikacyjny, trochę jak USB-C, które w tym momencie używa nam wszystkim jako jeden port, za pomocą którego możemy się podłączyć i ładować cały, każdy sprzęt elektroniczny. MCP działa na zasadzie prostej, ale potężnej architektury klient-serwer protokół. Na grafice widzimy dokładnie jak MCP działa w praktyce. Po lewej stronie mamy w czerwonym naszym kafelku hosta. Możemy sobie przyjąć, że jest to jakaś. . .
aplikacja, może być to Nathan, może być to Cloud, może być to jakakolwiek inna aplikacja, narzędzie, które sobie stworzymy, czyli to jest nasz klient. Następnie mamy w tym miejscu protokół komunikacyjny MCP, który definiuje, w jaki sposób dochodzi do wymiany informacji między właśnie hostem, a narzędziami, które zaraz sobie omówimy. Działa to troszkę jako taki tłumacz i powoduje, że wszystkie narzędzia oraz host mówią sobie w tym samym językiem. Idąc dalej, mamy tutaj serwer NCP. Tutaj mamy nasz główny obiekt, który zajmuje się tym, że przekłada zapytanie i potrzeby, które wynikają z naszego hosta bezpośrednio na protokół komunikacyjny poszczególnych narzędzi. Tutaj mamy jakąś lokalną bazę danych, tutaj mamy jakąś zewnętrzną, może być to API np. do serwisu Airbnb i w momencie, kiedy chcielibyśmy np. sobie naszym kliencie, np.
w Cloudzie, sprawdzić dostępne oferty na wynajem w Barcelonie w lipcu na lato, na przykład na trzy dni, to host, który zada takie pytanie do tego miejsca, będzie mógł wykładać ich zasoby wewnętrzne, aby wybrać odpowiednie narzędzie i zadać pytanie. Czyli on tak naprawdę, jego rolą jest to, aby to pytanie, które przyjdzie stąd, przełożyć w taki sposób, aby standard komunikacji z tym narzędziem zewnętrznym przełożył się na uzyskanie określonego rezultatu i potem te dane, które uzyskamy w tym miejscu, zostały znowu przetłumaczone dla naszego hosta, aby mógł bezpośrednio pracować z tym wynikiem. No i to, co jest też wielką zaletą MCP, to jest to, że jeden host, jak widzicie, może komunikować się z kilkoma narzędziami tak naprawdę jednocześnie.
Nie są one ograniczone tylko i wyłącznie do jednego narzędzia, które będzie dodane, ale może być tutaj kilka albo kilkanaście tych narzędzi, z którymi będzie się mógł komunikować. W tym miejscu mamy bardziej przykładowe zobrazowanie tego, co przed chwilą pokazywałem na infografice, czyli tutaj mamy naszego laptopa. który po prostu jest host, czyli nasz klient, czyli widzicie np. cloud, czy cursor albo model GPT. Następnie tutaj mamy właśnie protokół MCP, który widzicie, pełni rolę, można powiedzieć, adaptera, do którego możemy podłączyć lokalne tak naprawdę serwery MCP. Tutaj widzicie, mamy USB, to jest local storage oraz mamy też serwery zewnętrzne, gdzie mamy tutaj np. serwer Slacka, serwer Gmaila, kalendarza Google'a i to wszystko właśnie się łączy za pomocą protokołu MCP.
i bezpośrednio wchodzi do naszego laptopa czy klienta i możemy tutaj się komunikować Tutaj jeszcze jedna grafikatora chciałem Wam pokazać, czyli jak wyglądało to przed MCP i jak wygląda to w tym momencie, kiedy mamy MCP czyli wcześniej wszystkie nasze LLM-y musiały się komunikować bezpośrednio po API z poszczególnymi narzędziami i dostosowywać poszczególną strukturę, schemat zapytań do odpowiednich narzędzi, co było problematyczne i tworzyło wiele błędów a w tym momencie serwer MCP tak naprawdę odpowiada za to aby samodzielnie przełożyć zapytania, które trafiają tak naprawdę do naszego LLM-u do poszczególnych narzędzi, które znajdują się tutaj. Teraz pokażę Wam przykłady, jak możemy wykonywać właśnie MCP w Cloudzie. W tym materiale nie będę się skupiał na instalacji oraz konfiguracji tego, to będzie w innym materiale, teraz pokrótce tylko pokażę, jak możemy z niego skorzystać.
OK, mam podpięte narzędzie Google Maps i za pomocą właśnie protokołu MCP będę mógł wyszukać informacji, a chciałbym, żeby pokazał mi w tym momencie otwartą stację w okolicy Łagiwnickiej w Łodzi. Tutaj jak widzicie mamy zapytanie, które kieruje bezpośrednio do narzędzia Maps Search Places Google Maps, czyli wybrał sobie z narzędzi dostępnych w Google Maps narzędzie Maps Search Places, następnie również wybrał sobie zasób Maps Search Places z Google Maps jak i Maps Place Details Ok, jak widzicie otrzymaliśmy wyniki, jest to czytelną serię stacji, możemy sobie podejrzeć jak wyglądały poszczególne operacje na przykład poddał pytanie, stację pali w okolicy Łagiewnicka Łódź Dostał kilka odpowiedzi, potem sobie filtrował i wyszukiwał poszczególne informacje do danych obiektu, które zostały mu tutaj wskazane. Czyli widzicie, że możemy tutaj podłączyć sobie różnego rodzaju narzędzia. Ja w tym momencie mam ich podłączonych około kilku.
Mam tutaj również FireCrawler, za pomocą którego mogę sobie sklepować informacje ze strony. Jest to tylko kilka serwerów, aczkolwiek w tym momencie dostępne już około kilkadziesiąt. Czyli jak widzicie na GitHubie mamy dostęp do listy wszystkich dostępnych serwerów, z których możemy skorzystać. Jak widzicie lista jest cały czas rozwijana. Jest już tego całkiem sporo. Tak jak to się przewijało podczas tego wideo, powtarzałem, że jest to świeża technologia nowa, a co za tym idzie, niesie są pewne niebezpieczeństwa. Musimy pamiętać o tym, że w tym momencie nie mamy jeszcze stworzonego systemu autoryzacji dla poszczególnych narzędzi. Wpiera się to, że musimy dodać do zmiennych środowiskowych nasz klucz API. A bezpośrednio moduły, które w tym momencie są tworzone, np. te moduły community, które będziemy wykorzystać, mają dostęp do tych kluczy, które mogą być wykradzione.
Więc też trzeba zwracać uwagę na to, za jakimi narzędziami pracujemy, czy one pochodzą bezpośrednio od twórców poszczególnych narzędzi. To są tzw. narzędzia pochodzące z community, gdzie musimy bezpośrednio sprawdzać, czy nie ma jakiegokolwiek wycieku danych. Pamiętajmy też o tym, że cały czas jest nienajrzały ekosystem, który cały czas się rozwija. jak w przypadku Natena, gdzie mamy teraz dostęp do. . . możliwości pracy z MCP poprzez też właśnie Community Notes, który nie jest jeszcze idealny. W wielu przypadkach nie pracuje on tak, jak jeszcze powinien, nie łączy się wszystkimi narzędziami, bądź powoduje pewne błędy, co jest w pełni zrozumiałe w związku z tym, że to nie jest jeszcze oficjalny dodatek wypuszczony przez Natena, ale jest to, można powiedzieć, węzeł stworzony przez społeczność, dlatego prowadzi on pewne problemy.
Na ten moment, w mojej ocenie, nadaje się jeszcze na produkcji, nie możemy go bezpośrednio dodać w projektach, ale jako ciekawostka, którą możemy sobie próbować, świetnie się sprawdza i też daje dużo frajdy. Ponadto kwestia ograniczonego wsparcia, skalowalności, wydajność to już takie kwestie poboczne, na które też trzeba zwrócić uwagę, decydując się w tym momencie na zapoznawanie się z tą technologią. Cóż, podsumowując, możemy stwierdzić, że model Context Protocol to nie tylko i wyłącznie chwilowy trend w świecie AI, ale wszystko wskazuje na to, że będzie to nowy fundament do budowy ekosystemów dla agentów AI. Daje on modelom AI. możliwości interakcji zewnętrznymi narzędziami, co otwiera drzwi do nowych możliwości zastosowań w praktyce.
Czy MCP stanie się dla AI tym samym, czym HTTP stał się dla internetu? Czas pokaże, ale jedno jest pewne, warto śledzić rozwój tej technologii i warto również poświęcić czas na eksperymentowanie z nią. A jakie jest Twoje zdanie o MCP? Jakie masz doświadczenie w pracy z tą technologią? Podziel się swoją opinią w komentarzu i oczywiście pamiętaj o tym, żeby stawić łapkę w górę i zasubskrybować ten kanał. .
By visiting or using our website, you agree that our website or the websites of our partners may use cookies to store information for the purpose of delivering better, faster, and more secure services, as well as for marketing purposes.