Logo
    main-post-cover

    Anthropic-in süni zəka əsaslı Claude çat-botunda səsli rejim istifadəyə verilib

    Proqram Təminatı
    29.05.2025
    Emil
         Anthropic şirkəti süni zəka köməkçisi Claude üçün səsli rejimin tətbiqinə başlayıb. Hazırda bu funksiya mobil tətbiqlər üçün beta versiyada əlçatandır, lakin istifadəçilər artıq çat-bot ilə tam formatlı şifahi dialoqlar apara bilirlər. Məlumata əsasən səsli rejim vasitəsilə sənədlər və təsvirlər üzərində işləmək, 5 fərqli səs tembrindən birini seçmək, dialoq zamanı mətn və səsli giriş arasında keçid etmək mümkündür. Söhbət başa çatdıqdan sonra isə onun transkripsiyası və qısa xülasəsi təqdim olunur. Anthropic-in X sosial şəbəkəsindəki paylaşımına və rəsmi veb saytındakı yenilənmiş sənədlərə əsasən, səsli rejim artıq beta versiyada Claude tətbiqində mövcuddur.
    View post on X
         X platformasında ən azı bir istifadəçi bildirib ki, o bu funksiyaya çərşənbə axşamı axşam saatlarında giriş əldə edib. Standart olaraq süni zəka Claude Sonnet 4 modeli əsasında çalışır və növbəti bir neçə həftə ərzində istifadəyə veriləcək, lakin hələlik yalnız ingilis dilində dəstəklənir. Bu funksiyanın bəzi məhdudiyyətləri də var. Səsli dialoqlar ümumi sorğu limitinə daxildir. Belə ki, pulsuz istifadəçilər gündə təxminən 20-30 dialoq aparmaq imkanı əldə edirlər. Google Workspace (Google Calendar, Gmail) inteqrasiyası isə yalnız ödənişli abunəçilər üçün əlçatandır. Google Docs ilə bağlı isə bu imkan yalnız Claude Enterprise korporativ tarifində nəzərdə tutulub.
         Anthropic-in məhsul direktoru Mike Krieger daha əvvəl Financial Times-a verdiyi müsahibədə Claude üçün səsli funksiyaların hazırlanmasını təsdiqləmiş və bildirmişdi ki, şirkət əsas investoru olan Amazon və səs texnologiyaları üzrə ixtisaslaşmış ElevenLabs startapı ilə danışıqlar aparıb. Bu danışıqlardan hansılarının əməkdaşlıqla nəticələndiyi isə hələlik məlum deyil. Qeyd etmək lazımdır ki, Anthropic süni zəka ilə səsli qarşılıqlı əlaqə təqdim edən ilk iri şirkət deyil. OpenAI-in səsli çat funksiyası, Google-un Gemini Live xidməti və xAI tərəfindən Grok üçün təklif olunan oxşar funksiyalar artıq mövcuddur.
    Paylaş
    Bənzər xəbərlər
    suni-zeka-esasli-cat-botlar-cinayetkarlarin-aletlerine-cevrilirler
    Təhlükəsizlik

    Süni zəka əsaslı çat-botlar cinayətkarların alətlərinə çevrilirlər

    İsrailin Ben-Qurion Universitetinin alimləri müəyyən ediblər ki, müasir böyük dil modellərinin (BDM) əksəriyyəti, o cümlədən ChatGPT, asanlıqla qeyri-qanuni fəaliyyətlərə dair ətraflı təlimatlar generasiya etməyə məcbur edilə bilər.
    openai-nin-o3-modeli-insanin-emrine-baxmayaraq-deaktiv-olmaqdan-imtina-edir
    Süni İntellekt

    OpenAI-nin o3 modeli insanın əmrinə baxmayaraq deaktiv olmaqdan imtina edir

    2025-ci ilin yazında OpenAI tərəfindən yeni nəsil süni zəkanın əsas modeli kimi təqdim olunmuş o3 modeli, söndürülmə ssenarisini yenidən yazaraq işini dayandırmaqla bağlı birbaşa göstərişi nəzərə almayıb. Bu hadisə Palisade Research tədqiqatçıları tərəfindən nəzarətli təcrübə çərçivəsində qeydə alınıb və süni zəka icmasında narahatlıq doğurub.
    it-sirketlerin-rehberleri-investorlarla-gorus-ucun-artiq-suni-zeka-avatarlardan-istifade-etmeye-baslayiblar-video
    Süni İntellekt

    İT şirkətlərin rəhbərləri investorlarla görüş üçün artıq süni zəka avatarlardan istifadə etməyə başlayıblar (VİDEO)

    Texnologiya şirkətləri olan Zoom və Klarna-nın rəhbərləri yalnız bəzi əməkdaşlarını süni zəka agentləri ilə əvəz etməklə kifayətlənməyib, eyni zamanda özlərini də əvəz ediblər.
    anthropic-in-claude-opus-4-suni-zeka-modeli-muhe
    Süni İntellekt

    Anthropic-in Claude Opus 4 süni zəka modeli mühəndisləri şantaj edib

    Anthropic-in yeni süni zəka modeli Claude Opus 4 testlər zamanı mühəndisləri şəxsi sirləri, məsələn, ailədaxili xəyanət barədə məlumatları ifşa etməklə hədələyərək şantaj etməyə cəhd göstərib.
    suni-zeka-modelleri-insanlara-nisbeten-daha-az-halusinasiyalara-meruz-qalirlar
    Süni İntellekt

    Süni zəka modelləri insanlara nisbətən daha az halüsinasiyalara məruz qalırlar

    Müasir süni zəka modelləri suallara reallığa uyğun olmayan cavablar verdikdə, buna halüsinasiyalar deyirlər. Məlum olub ki, süni zəka modelləri bunu insanlara nisbətən daha az edirlər.