README_TR.md
English | 中文 | 繁體中文 | Français | 日本語 | Português (Brasil) | Español | Türkçe
Sesli komut destekli bu yapay zeka asistanı, Manus AI'ya %100 yerel bir alternatiftir. Web'de otonom olarak gezinir, kod yazar ve görevleri planlar; tüm verilerinizi cihazınızda tutar. Yerel akıl yürütme modelleri için tasarlanmış olup tamamen kendi donanımınızda çalışır, eksiksiz gizlilik ve sıfır bulut bağımlılığı sağlar.
🔒 Tamamen Yerel ve Gizli - Her şey kendi makinenizde çalışır — bulut yok, veri paylaşımı yok. Dosyalarınız, konuşmalarınız ve aramalarınız gizli kalır.
🌐 Akıllı Web Tarama - AgenticSeek internette kendi başına gezinebilir — arama yapar, okur, bilgi çıkarır, web formlarını doldurur — tamamen eller serbest.
💻 Otonom Kodlama Asistanı - Koda mı ihtiyacınız var? Python, C, Go, Java ve daha fazlasında program yazabilir, hata ayıklayabilir ve çalıştırabilir — denetim olmadan.
🧠 Akıllı Ajan Seçimi - Siz sorarsınız, o otomatik olarak iş için en uygun ajanı belirler. Elinizin altında uzmanlardan oluşan bir ekip gibi.
📋 Karmaşık Görevleri Planlar ve Yürütür - Seyahat planlamasından karmaşık projelere kadar — büyük görevleri adımlara bölebilir ve birden fazla yapay zeka ajanı kullanarak işleri tamamlayabilir.
🎙️ Ses Desteği - Temiz, hızlı, fütüristik ses ve konuşmadan metne dönüştürme ile bilim kurgu filmlerindeki kişisel yapay zekanızla konuşuyormuş gibi etkileşim kurabilirsiniz. (Geliştirme aşamasında)
AgenticSeek projesini arayabilir misin, hangi becerilerin gerektiğini öğrenip ardından CV_candidates.zip dosyasını açarak projeye en uygun adayları söyleyebilir misin?
https://github.com/user-attachments/assets/b8ca60e9-7b3b-4533-840e-08f9ac426316
Uyarı: Bu demo ve görünen tüm dosyalar (ör: CV_candidates.zip) tamamen kurgusaldır. Bir şirket değiliz, aday değil açık kaynak katkıda bulunanlar arıyoruz.
🛠⚠️️ Aktif Olarak Geliştirilmektedir
🙏 Bu proje bir yan proje olarak başladı ve sıfır yol haritası, sıfır finansmanla geliştirilmektedir. GitHub Trending'e girerek beklentilerin çok ötesine geçti. Katkılar, geri bildirimler ve sabır derinden takdir edilmektedir.
Başlamadan önce aşağıdaki yazılımların yüklü olduğundan emin olun:
sudo apt-get install docker-compose-plugin).git clone https://github.com/Fosowl/agenticSeek.git
cd agenticSeek
mv .env.example .env
SEARXNG_BASE_URL="http://searxng:8080" # CLI modunda çalıştırıyorsanız http://127.0.0.1:8080 kullanın
REDIS_BASE_URL="redis://redis:6379/0"
WORK_DIR="/Users/mlg/Documents/workspace_for_ai"
OLLAMA_PORT="11434"
LM_STUDIO_PORT="1234"
CUSTOM_ADDITIONAL_LLM_PORT="11435"
OPENAI_API_KEY='optional'
DEEPSEEK_API_KEY='optional'
OPENROUTER_API_KEY='optional'
TOGETHER_API_KEY='optional'
GOOGLE_API_KEY='optional'
ANTHROPIC_API_KEY='optional'
.env dosyasını ihtiyaçlarınıza göre güncelleyin:
API anahtarları, LLM'yi yerel olarak çalıştırmayı tercih eden kullanıcılar için tamamen isteğe bağlıdır. Bu projenin birincil amacı da budur. Yeterli donanımınız varsa boş bırakın.
Docker'ın sisteminizde yüklü ve çalışır durumda olduğundan emin olun. Docker'ı aşağıdaki komutlarla başlatabilirsiniz:
Linux/macOS: Terminal açın ve çalıştırın:
sudo systemctl start docker
Veya yüklüyse Docker Desktop'ı uygulama menüsünden başlatın.
Windows: Başlat menüsünden Docker Desktop'ı başlatın.
Docker'ın çalıştığını doğrulamak için:
docker info
Docker kurulumunuz hakkında bilgi görüyorsanız, düzgün çalışıyor demektir.
Özet için aşağıdaki Yerel Sağlayıcılar tablosuna bakın.
Sonraki adım: AgenticSeek'i yerel olarak çalıştırın
Sorun yaşıyorsanız Sorun Giderme bölümüne bakın.
Donanımınız LLM'leri yerel olarak çalıştıramıyorsa API ile Çalıştırma Kurulumu bölümüne bakın.
Ayrıntılı config.ini açıklamaları için Yapılandırma bölümüne bakın.
Donanım Gereksinimleri:
LLM'leri yerel olarak çalıştırmak için yeterli donanıma ihtiyacınız olacaktır. En azından Magistral, Qwen veya Deepseek 14B çalıştırabilecek bir GPU gereklidir. Ayrıntılı model/performans önerileri için SSS bölümüne bakın.
Yerel sağlayıcınızı ayarlayın
Yerel sağlayıcınızı başlatın (örneğin ollama ile):
AgenticSeek'i ana makinede (CLI modu) çalıştırmayacaksanız, sağlayıcı dinleme adresini ayarlayın:
export OLLAMA_HOST=0.0.0.0:11434
Ardından sağlayıcınızı başlatın:
ollama serve
Desteklenen yerel sağlayıcıların listesi için aşağıya bakın.
config.ini dosyasını güncelleyin
config.ini dosyasında provider_name'i desteklenen bir sağlayıcıya ve provider_model'i sağlayıcınızın desteklediği bir LLM'e ayarlayın. Magistral veya Deepseek gibi akıl yürütme modellerini öneriyoruz.
Gerekli donanım için README sonundaki SSS bölümüne bakın.
[MAIN]
is_local = True # Yerel mi yoksa uzak sağlayıcı ile mi çalıştırıyorsunuz.
provider_name = ollama # veya lm-studio, openai, vb.
provider_model = deepseek-r1:14b # donanımınıza uygun bir model seçin
provider_server_address = 127.0.0.1:11434
agent_name = Jarvis # yapay zekanızın adı
recover_last_session = True # önceki oturumu kurtarıp kurtarmayacağı
save_session = True # mevcut oturumu hatırlayıp hatırlamayacağı
speak = False # metinden sese dönüştürme
listen = False # sesten metne dönüştürme, yalnızca CLI için, deneysel
jarvis_personality = False # daha "Jarvis" benzeri bir kişilik kullanıp kullanmayacağı (deneysel)
languages = en zh # Dil listesi, metinden sese varsayılan olarak listedeki ilk dili kullanır
[BROWSER]
headless_browser = True # CLI modunda değilseniz değiştirmeyin.
stealth_mode = True # Tarayıcı algılamasını azaltmak için gizli selenium kullanır
Uyarı:
config.ini dosya biçimi yorum satırlarını desteklemez.
Örnek yapılandırmayı doğrudan kopyalayıp yapıştırmayın, çünkü yorum satırları hatalara neden olur. Bunun yerine config.ini dosyasını yorum satırları olmadan istediğiniz ayarlarla manuel olarak düzenleyin.
LLM çalıştırmak için LM-studio kullanıyorsanız provider_name'i openai olarak AYARLAMAYIN. lm-studio olarak ayarlayın.
Bazı sağlayıcılar (ör: lm-studio) IP'nin önünde http:// gerektirir. Örneğin: http://127.0.0.1:1234
Yerel Sağlayıcılar Listesi
| Sağlayıcı | Yerel mi? | Açıklama |
|---|---|---|
| ollama | Evet | Ollama kullanarak LLM'leri kolayca yerel olarak çalıştırın |
| lm-studio | Evet | LM Studio ile LLM'leri yerel olarak çalıştırın (provider_name değerini lm-studio olarak ayarlayın) |
| openai | Evet | OpenAI uyumlu API kullanın (ör: llama.cpp sunucusu) |
Sonraki adım: Servisleri başlatın ve AgenticSeek'i çalıştırın
Sorun yaşıyorsanız Sorun Giderme bölümüne bakın.
Donanımınız LLM'leri yerel olarak çalıştıramıyorsa API ile Çalıştırma Kurulumu bölümüne bakın.
Ayrıntılı config.ini açıklamaları için Yapılandırma bölümüne bakın.
Bu kurulum harici, bulut tabanlı LLM sağlayıcılarını kullanır. Seçtiğiniz servisten bir API anahtarına ihtiyacınız olacaktır.
1. Bir API Sağlayıcısı Seçin ve API Anahtarı Alın:
Aşağıdaki API Sağlayıcıları Listesi bölümüne bakın. Kaydolmak ve API anahtarı almak için web sitelerini ziyaret edin.
2. API Anahtarınızı Ortam Değişkeni Olarak Ayarlayın:
Linux/macOS:
Terminal açın ve export komutunu kullanın. Kalıcılık için bunu shell profil dosyanıza (ör: ~/.bashrc, ~/.zshrc) eklemeniz önerilir.
export PROVIDER_API_KEY="api_anahtarınız"
# PROVIDER_API_KEY'i ilgili değişken adıyla değiştirin, ör: OPENAI_API_KEY, GOOGLE_API_KEY
TogetherAI örneği:
export TOGETHER_API_KEY="xxxxxxxxxxxxxxxxxxxxxx"
Windows:
set PROVIDER_API_KEY=api_anahtarınız
$env:PROVIDER_API_KEY="api_anahtarınız"
OPENAI_API_KEY) yeni bir Kullanıcı değişkeni ekleyin ve değer olarak anahtarınızı girin.(Daha fazla ayrıntı için SSS: API anahtarlarını nasıl ayarlarım? bölümüne bakın.)
3. config.ini Dosyasını Güncelleyin:
[MAIN]
is_local = False
provider_name = openai # Veya google, deepseek, togetherAI, huggingface
provider_model = gpt-3.5-turbo # Veya gemini-1.5-flash, deepseek-chat, mistralai/Mixtral-8x7B-Instruct-v0.1 vb.
provider_server_address = # is_local = False olduğunda çoğu API için genellikle yok sayılır veya boş bırakılabilir
# ... diğer ayarlar ...
Uyarı: config.ini değerlerinin sonunda boşluk olmadığından emin olun.
API Sağlayıcıları Listesi
| Sağlayıcı | provider_name | Yerel mi? | Açıklama | API Anahtarı Bağlantısı (Örnekler) |
|---|---|---|---|---|
| OpenAI | openai | Hayır | OpenAI API'si üzerinden ChatGPT modellerini kullanın. | platform.openai.com/signup |
| Google Gemini | google | Hayır | Google AI Studio üzerinden Google Gemini modellerini kullanın. | aistudio.google.com/keys |
| Deepseek | deepseek | Hayır | Deepseek API'si üzerinden Deepseek modellerini kullanın. | platform.deepseek.com |
| Hugging Face | huggingface | Hayır | Hugging Face Inference API'den modelleri kullanın. | huggingface.co/settings/tokens |
| TogetherAI | togetherAI | Hayır | TogetherAI API'si üzerinden çeşitli açık kaynak modelleri kullanın. | api.together.ai/settings/api-keys |
| OpenRouter | openrouter | Hayır | OpenRouter Modellerini kullanın | https://openrouter.ai/ |
Not:
gpt-4o veya diğer OpenAI modellerini kullanmanızı önermiyoruz, çünkü mevcut prompt optimizasyonları Deepseek gibi modellere yöneliktir.is_local = False olduğunda config.ini içindeki provider_server_address genellikle kullanılmaz, çünkü API uç noktaları genellikle ilgili sağlayıcı kütüphanesinde sabit kodlanmıştır.Sonraki adım: Servisleri başlatın ve AgenticSeek'i çalıştırın
Sorun yaşıyorsanız Bilinen Sorunlar bölümüne bakın
Ayrıntılı yapılandırma dosyası açıklamaları için Yapılandırma bölümüne bakın.
Varsayılan olarak AgenticSeek tamamen Docker içinde çalıştırılır.
Seçenek 1: Docker'da çalıştırın, web arayüzünü kullanın:
Gerekli servisleri başlatın. Bu, docker-compose.yml'deki tüm servisleri başlatacaktır:
- searxng
- redis (searxng için gerekli)
- frontend
- backend (web arayüzü kullanırken full parametresi ile)
./start_services.sh full # MacOS
start start_services.cmd full # Windows
Uyarı: Bu adım tüm Docker imajlarını indirip yükleyecektir, bu işlem 30 dakikaya kadar sürebilir. Servisleri başlattıktan sonra, herhangi bir mesaj göndermeden önce backend servisinin tamamen çalışır duruma gelmesini bekleyin (loglarda backend: "GET /health HTTP/1.1" 200 OK mesajını görmelisiniz). İlk çalıştırmada backend servisinin başlaması 5 dakika sürebilir.
http://localhost:3000/ adresine gidin ve web arayüzünü görmelisiniz.
Servis başlatma sorun giderme: Bu betikler başarısız olursa, Docker Engine'in çalıştığından ve Docker Compose'un (V2, docker compose) doğru şekilde yüklendiğinden emin olun. Hata mesajları için terminal çıktısını kontrol edin. Bkz. SSS: AgenticSeek'i veya betiklerini çalıştırırken hata alıyorum.
Seçenek 2: CLI modu:
CLI arayüzü ile çalıştırmak için paketleri ana makineye yüklemeniz gerekir:
./install.sh
./install.bat # windows
Ardından config.ini içindeki SEARXNG_BASE_URL değerini şu şekilde değiştirmelisiniz:
SEARXNG_BASE_URL="http://localhost:8080"
Gerekli servisleri başlatın. Bu, docker-compose.yml'deki bazı servisleri başlatacaktır: - searxng - redis (searxng için gerekli) - frontend
./start_services.sh # MacOS
start start_services.cmd # Windows
Çalıştırın: uv run python -m ensurepip komutu ile uv'nin pip'i etkin olduğundan emin olun.
CLI'yi kullanın: uv run cli.py
Servislerin ./start_services.sh full ile çalıştığından emin olun ve web arayüzü için localhost:3000 adresine gidin.
Yapılandırmada listen = True ayarlayarak konuşmadan metne dönüştürmeyi de kullanabilirsiniz. Yalnızca CLI modu için.
Çıkmak için goodbye yazın/söyleyin.
İşte bazı kullanım örnekleri:
Python'da bir yılan oyunu yap!
Rennes, Fransa'daki en iyi kafeleri internette ara ve adres bilgileriyle birlikte üçünü rennes_cafes.txt dosyasına kaydet.
Bir sayının faktöriyelini hesaplayan bir Go programı yaz, çalışma alanına factorial.go olarak kaydet
summer_pictures klasöründeki tüm JPG dosyalarını ara, bugünün tarihiyle yeniden adlandır ve yeniden adlandırılan dosyaların listesini photos_list.txt dosyasına kaydet
2024'ün popüler bilim kurgu filmlerini internette ara ve bu gece izlemek için üçünü seç. Listeyi movie_night.txt dosyasına kaydet.
2025'in en son yapay zeka haberleri makalelerini internette ara, üçünü seç ve başlıklarını ve özetlerini kazımak için bir Python betiği yaz. Betiği news_scraper.py olarak ve özetleri /home/projects içinde ai_news.txt olarak kaydet
Cuma, internette ücretsiz bir hisse senedi fiyat API'si ara, [email protected] ile kaydol ve ardından API'yi kullanarak Tesla'nın günlük fiyatlarını çekmek için bir Python betiği yaz, sonuçları stock_prices.csv dosyasına kaydet
Form doldurma yeteneklerinin hâlâ deneysel olduğunu ve başarısız olabileceğini unutmayın.
Sorgunuzu yazdıktan sonra AgenticSeek göreve en uygun ajanı atayacaktır.
Bu erken bir prototip olduğundan, ajan yönlendirme sistemi sorgunuza göre her zaman doğru ajanı atamayabilir.
Bu nedenle, ne istediğiniz ve yapay zekanın nasıl ilerlemesi gerektiği konusunda çok açık olun. Örneğin, web araması yapmasını istiyorsanız şunu demeyin:
Solo seyahat için iyi ülkeler biliyor musun?
Bunun yerine şöyle sorun:
Web araması yap ve solo seyahat için en iyi ülkeleri bul
Güçlü bir bilgisayarınız veya kullanabileceğiniz bir sunucunuz varsa, ancak dizüstü bilgisayarınızdan kullanmak istiyorsanız, özel LLM sunucumuzu kullanarak LLM'yi uzak bir sunucuda çalıştırma seçeneğiniz vardır.
Yapay zeka modelini çalıştıracak "sunucunuzda" IP adresini alın
ip a | grep "inet " | grep -v 127.0.0.1 | awk '{print $2}' | cut -d/ -f1 # yerel IP
curl https://ipinfo.io/ip # genel IP
Not: Windows veya macOS için IP adresini bulmak üzere sırasıyla ipconfig veya ifconfig kullanın.
Depoyu klonlayın ve server/ klasörüne girin.
git clone --depth 1 https://github.com/Fosowl/agenticSeek.git
cd agenticSeek/llm_server/
Sunucuya özel gereksinimleri yükleyin:
pip3 install -r requirements.txt
Sunucu betiğini çalıştırın.
python3 app.py --provider ollama --port 3333
LLM servisi olarak ollama veya llamacpp arasında seçim yapabilirsiniz.
Şimdi kişisel bilgisayarınızda:
config.ini dosyasında provider_name değerini server ve provider_model değerini deepseek-r1:xxb olarak ayarlayın.
provider_server_address değerini modeli çalıştıracak makinenin IP adresine ayarlayın.
[MAIN]
is_local = False
provider_name = server
provider_model = deepseek-r1:70b
provider_server_address = http://x.x.x.x:3333
Sonraki adım: Servisleri başlatın ve AgenticSeek'i çalıştırın
Uyarı: Konuşmadan metne özelliği şu anda yalnızca CLI modunda çalışmaktadır.
Konuşmadan metne özelliğinin şu anda yalnızca İngilizce dilinde çalıştığını lütfen unutmayın.
Konuşmadan metne işlevi varsayılan olarak devre dışıdır. Etkinleştirmek için config.ini dosyasında listen seçeneğini True olarak ayarlayın:
listen = True
Etkinleştirildiğinde, konuşmadan metne özelliği girdinizi işlemeye başlamadan önce bir tetikleyici anahtar kelimeyi (ajanın adı) dinler. Ajanın adını config.ini dosyasındaki agent_name değerini güncelleyerek özelleştirebilirsiniz:
agent_name = Friday
En iyi tanıma performansı için ajan adı olarak "John" veya "Emma" gibi yaygın bir İngilizce isim kullanmanızı öneririz.
Transkript görünmeye başladığında, uyandırmak için ajanın adını yüksek sesle söyleyin (ör: "Friday").
Sorgunuzu net bir şekilde söyleyin.
Sisteme devam etmesi gerektiğini bildirmek için isteğinizi bir onay ifadesiyle bitirin. Onay ifadesi örnekleri:
"do it", "go ahead", "execute", "run", "start", "thanks", "would ya", "please", "okay?", "proceed", "continue", "go on", "do that", "go it", "do you understand?"
Örnek yapılandırma:
[MAIN]
is_local = True
provider_name = ollama
provider_model = deepseek-r1:32b
provider_server_address = http://127.0.0.1:11434 # Ollama örneği; LM-Studio için http://127.0.0.1:1234 kullanın
agent_name = Friday
recover_last_session = False
save_session = False
speak = False
listen = False
jarvis_personality = False
languages = en zh # TTS ve potansiyel yönlendirme için dil listesi.
[BROWSER]
headless_browser = False
stealth_mode = False
config.ini Ayarlarının Açıklaması:
[MAIN] Bölümü:
is_local: Yerel LLM sağlayıcısı (Ollama, LM-Studio, yerel OpenAI uyumlu sunucu) veya kendi barındırdığınız sunucu seçeneğini kullanıyorsanız True. Bulut tabanlı API (OpenAI, Google, vb.) kullanıyorsanız False.provider_name: LLM sağlayıcısını belirtir.
ollama, lm-studio, openai (yerel OpenAI uyumlu sunucular için), server (kendi barındırdığınız sunucu kurulumu için).openai, google, deepseek, huggingface, togetherAI.provider_model: Seçilen sağlayıcı için belirli model adı veya kimliği (ör: Ollama için deepseekcoder:6.7b, OpenAI API için gpt-3.5-turbo, TogetherAI için mistralai/Mixtral-8x7B-Instruct-v0.1).provider_server_address: LLM sağlayıcınızın adresi.
http://127.0.0.1:11434, LM-Studio için http://127.0.0.1:1234.server sağlayıcı türü için: Kendi barındırdığınız LLM sunucunuzun adresi (ör: http://sunucu_ip_adresiniz:3333).is_local = False) için: Genellikle yok sayılır veya boş bırakılabilir, çünkü API uç noktası genellikle istemci kütüphanesi tarafından işlenir.agent_name: Yapay zeka asistanının adı (ör: Friday). Etkinleştirilmişse konuşmadan metne için tetikleyici kelime olarak kullanılır.recover_last_session: Önceki oturumun durumunu kurtarmaya çalışmak için True, yeni başlamak için False.save_session: Mevcut oturumun durumunu olası kurtarma için kaydetmek için True, aksi takdirde False.speak: Metinden sese sesli çıktıyı etkinleştirmek için True, devre dışı bırakmak için False.listen: Konuşmadan metne sesli girdiyi etkinleştirmek için True (yalnızca CLI modu), devre dışı bırakmak için False.work_dir: Kritik: AgenticSeek'in dosya okuyacağı/yazacağı dizin. Bu yolun sisteminizde geçerli ve erişilebilir olduğundan emin olun.jarvis_personality: Daha "Jarvis-benzeri" bir sistem istemi kullanmak için True (deneysel), standart istem için False.languages: Virgülle ayrılmış dil listesi (ör: en, zh, fr). TTS ses seçimi için kullanılır (varsayılan olarak ilki) ve LLM yönlendiricisine yardımcı olabilir. Yönlendirici verimliliği için çok fazla veya çok benzer dil kullanmaktan kaçının.[BROWSER] Bölümü:
headless_browser: Otomatik tarayıcıyı görünür pencere olmadan çalıştırmak için True (web arayüzü veya etkileşimsiz kullanım için önerilir). Tarayıcı penceresini göstermek için False (CLI modu veya hata ayıklama için kullanışlıdır).stealth_mode: Tarayıcı otomasyonunun tespit edilmesini zorlaştıran önlemleri etkinleştirmek için True. Anticaptcha gibi tarayıcı eklentilerinin manuel olarak yüklenmesini gerektirebilir.Bu bölüm desteklenen LLM sağlayıcı türlerini özetler. config.ini dosyasında yapılandırın.
Yerel Sağlayıcılar (Kendi Donanımınızda Çalışır):
config.ini'deki Sağlayıcı Adı | is_local | Açıklama | Kurulum Bölümü |
|---|---|---|---|
ollama | True | Ollama kullanarak yerel LLM'leri sunun. | LLM'yi yerel olarak çalıştırma kurulumu |
lm-studio | True | LM-Studio kullanarak yerel LLM'leri sunun. | LLM'yi yerel olarak çalıştırma kurulumu |
openai (yerel sunucu için) | True | OpenAI uyumlu API sunan yerel bir sunucuya bağlanın (ör: llama.cpp). | LLM'yi yerel olarak çalıştırma kurulumu |
server | False | Başka bir makinede çalışan AgenticSeek kendi barındırmalı LLM sunucusuna bağlanın. | LLM'yi kendi sunucunuzda çalıştırma kurulumu |
API Sağlayıcıları (Bulut Tabanlı):
config.ini'deki Sağlayıcı Adı | is_local | Açıklama | Kurulum Bölümü |
|---|---|---|---|
openai | False | OpenAI'ın resmi API'sini kullanın (ör: GPT-3.5, GPT-4). | API ile çalıştırma kurulumu |
google | False | Google Gemini modellerini API üzerinden kullanın. | API ile çalıştırma kurulumu |
deepseek | False | Deepseek'in resmi API'sini kullanın. | API ile çalıştırma kurulumu |
huggingface | False | Hugging Face Inference API'yi kullanın. | API ile çalıştırma kurulumu |
togetherAI | False | TogetherAI API'si üzerinden çeşitli açık modelleri kullanın. | API ile çalıştırma kurulumu |
Sorunlarla karşılaşırsanız bu bölüm rehberlik sağlar.
Hata Örneği: SessionNotCreatedException: Message: session not created: This version of ChromeDriver only supports Chrome version XXX
ChromeDriver sürüm uyumsuzluğu şu durumlarda oluşur:
undetected_chromedriver, bağlanan ikili dosyayı atlayarak kendi ChromeDriver sürümünü indirebilirGoogle Chrome'u açın → Ayarlar > Chrome Hakkında bölümünden sürümünüzü bulun (ör: "Sürüm 134.0.6998.88")
Chrome 115 ve sonrası için: Chrome for Testing API kullanın
Eski Chrome sürümleri için: Eski ChromeDriver indirmeleri kullanın
Yöntem A: Proje Kök Dizini (Docker için Önerilir)
# İndirilen chromedriver ikili dosyasını proje kök dizinine yerleştirin
cp path/to/downloaded/chromedriver ./chromedriver
chmod +x ./chromedriver # Linux/macOS'ta çalıştırılabilir yapın
Yöntem B: Sistem PATH'i
# Linux/macOS
sudo mv chromedriver /usr/local/bin/
sudo chmod +x /usr/local/bin/chromedriver
# Windows: chromedriver.exe dosyasını PATH'inizdeki bir klasöre yerleştirin
# ChromeDriver sürümünü test edin
./chromedriver --version
# Veya PATH'teyse:
chromedriver --version
⚠️ Docker Kullanıcıları İçin Önemli:
undetected_chromedriver) çalışmayabilir./chromedriver olarak yerleştirin"Using ChromeDriver from project root: ./chromedriver"Hâlâ sürüm uyumsuzluğu mu var?
ls -la ./chromedriver./chromedriver --versionDocker container sorunları mı var?
docker logs backend"Using ChromeDriver from project root"Chrome for Testing sürümleri
| Chrome Sürümü | ChromeDriver Sürümü | Durum |
|---|---|---|
| 134.0.6998.x | 134.0.6998.165 | ✅ Çalışır |
| 133.0.6943.x | 133.0.6943.141 | ✅ Çalışır |
| 132.0.6834.x | 132.0.6834.159 | ✅ Çalışır |
En güncel uyumluluk için Chrome for Testing panosunu kontrol edin
Exception: Failed to initialize browser: Message: session not created: This version of ChromeDriver only supports Chrome version 113 Current browser version is 134.0.6998.89 with binary path
Bu hata, tarayıcınız ve chromedriver sürümü arasında uyumsuzluk varsa oluşur.
En son sürümü indirmek için şu adrese gidin:
https://developer.chrome.com/docs/chromedriver/downloads
Chrome sürüm 115 veya daha yenisini kullanıyorsanız:
https://googlechromelabs.github.io/chrome-for-testing/
adresinden işletim sisteminize uygun chromedriver sürümünü indirin.
Bu bölüm eksikse lütfen bir issue açın.
Exception: Provider lm-studio failed: HTTP request failed: No connection adapters were found for '127.0.0.1:1234/v1/chat/completions'` (Not: port değişebilir)
config.ini dosyasında lm-studio (veya benzeri yerel OpenAI uyumlu sunucular) için provider_server_address değerinde http:// öneki eksik veya yanlış porta yönlendiriliyor.http:// içerdiğinden emin olun. LM-Studio varsayılan olarak genellikle http://127.0.0.1:1234 kullanır.config.ini: provider_server_address = http://127.0.0.1:1234 (veya gerçek LM-Studio sunucu portunuz).raise ValueError("SearxNG base URL must be provided either as an argument or via the SEARXNG_BASE_URL environment variable.")
ValueError: SearxNG base URL must be provided either as an argument or via the SEARXNG_BASE_URL environment variable.`
Bu hata, CLI modunu yanlış SearxNG temel URL'si ile çalıştırdığınızda oluşabilir.
SEARXNG_BASE_URL, Docker'da mı yoksa ana makinede mi çalıştırdığınıza göre değişmelidir:
Ana makinede çalıştırma: SEARXNG_BASE_URL="http://localhost:8080"
Tamamen Docker'da çalıştırma (web arayüzü): SEARXNG_BASE_URL="http://searxng:8080"
S: Hangi donanıma ihtiyacım var?
| Model Boyutu | GPU | Yorum |
|---|---|---|
| 7B | 8GB VRAM | ⚠️ Önerilmez. Düşük performans, sık halüsinasyonlar ve planlayıcı ajanlar büyük olasılıkla başarısız olur. |
| 14B | 12 GB VRAM (ör: RTX 3060) | ✅ Basit görevler için kullanılabilir. Web tarama ve planlama görevlerinde zorlanabilir. |
| 32B | 24+ GB VRAM (ör: RTX 4090) | 🚀 Çoğu görevde başarılı, görev planlamasında hâlâ zorlanabilir |
| 70B+ | 48+ GB VRAM | 💪 Mükemmel. Gelişmiş kullanım senaryoları için önerilir. |
S: Hata alıyorum, ne yapmalıyım?
Yerel sunucunun çalıştığından (ollama serve), config.ini dosyanızın sağlayıcınızla eşleştiğinden ve bağımlılıkların yüklü olduğundan emin olun. Hiçbiri işe yaramazsa bir issue açmaktan çekinmeyin.
S: Gerçekten %100 yerel çalışabilir mi?
Evet, Ollama, lm-studio veya server sağlayıcıları ile tüm konuşmadan metne, LLM ve metinden sese modelleri yerel olarak çalışır. Yerel olmayan seçenekler (OpenAI veya diğer API'ler) isteğe bağlıdır.
S: Manus varken neden AgenticSeek kullanmalıyım?
Manus'un aksine, AgenticSeek harici sistemlerden bağımsızlığa öncelik verir, size daha fazla kontrol, gizlilik ve API maliyetinden kaçınma imkânı sunar.
S: Projenin arkasında kim var?
Proje benim tarafımdan, bakımcı olarak görev yapan iki arkadaşım ve GitHub'daki açık kaynak topluluğundan katkıda bulunanlarla birlikte oluşturuldu. Bir startup veya herhangi bir kuruluşla bağlantılı değiliz, sadece tutkulu bireylerden oluşan bir grubuz.
X'te kişisel hesabım (https://x.com/Martin993886460) dışındaki herhangi bir AgenticSeek hesabı taklittir.
AgenticSeek'i geliştirmek için geliştiriciler arıyoruz! Açık issue'lara veya tartışmalara göz atın.
AgenticSeek'in yeteneklerini uçuş arama, seyahat planlama veya en iyi alışveriş fırsatlarını yakalama gibi özelliklerle geliştirmek ister misiniz? Daha fazla Jarvis benzeri yetenek açmak için SerpApi ile özel bir araç oluşturmayı düşünün. SerpApi ile, tam kontrolü elinizde tutarken ajanınızı özel görevler için güçlendirebilirsiniz.
<a href="https://serpapi.com/"></a>
Özel araçları nasıl entegre edeceğinizi öğrenmek için Contributing.md dosyasına bakın!
Fosowl | Paris Saati
antoineVIVIES | Taipei Saati