-
Tēmu lasa 0 biedri
- No registered users viewing this page.
-
Kas ir tiešsaistē 23 biedri, 0 Anonīmi, 51 viesi (Skatīt pilnu sarakstu)
- Aigars
- kaads
- ju
- Jurkins
- Alex30
- AndrisBB
- psaiho
- noname
- kaut_kaads
- DSTr
- Usins
- maize
- Zin...
- HIGH-Zen
- Igors83
- e = d
- oxygen
- spameris
- Gestapo
- pauls
- Stasss
- zmeyok
- ridao
-
Biedru statistika
26955
Kopā biedri5180
Bieži tiešsaistēNewest Member
Kaspersky
Pievienojies
-
Jaunākie Ieraksti
-
Jā, 'izpētei' 😂 Bet nu tur to grozījumu tik daudz, ka iespējams ka nekas no tā visa vairs nav aktuāls.
-
Nez, šo to pavaicāju, bija sliktāks par Claude, un uz sensitīviem jautājumiem par Ķīnu vispār izliekas par muļķi.
-
-
-
-
Tagad te daudzi sacepušies par to DeepSeek R1 modeli, ko ķīnieši samācījuši, esot pat tamdēļ nvidia un OpenAI akcijas pakritošās jo tas viss esot pārvērtēts, un ķīnieši to mākot daudz labāk. Tb ar budžetu 10M satrenējuši tuvu tam ko prot chatGPT. Nu itkā palaist palaidu to DeepSeek uz sava datora, nu šo to māk, bet nu neko daudz vēl nesanāca pamēģināt.
-
Tirogt jau nav aizliegts, bet bez speciālas atļaujas iegādāties gan ir aizliegts. Tāpat kā vēl lērumu saimniecībā noderīgu lietu.
-
nu protams, Super FM (EHR) izgudroja, paši realizēja, bet SWH bija jau no dzimšanas RDS nosaukuma sadaļa (astotņi simboli) tika izvēlēta, jo RDS RT vairumam aparātu tolaik nemaz nebija
-
Vaitad kameras trūkst, pie reizes darbosies arī kā zvans https://en-uk.ring.com/products/door-view-cam
-
Labs, @oxygen sūtītāja mājas lapā pamanīju radio pulksteni ko aļikā bez kameras redzēju. Bet tur par kameru nebija minēts 😂
-
Tavs rīks jau priekš ChatGPT, plus Claude jau visus koda blāķus atver atsevisķā dialogā un aizver kad nākamais koda blāķis tiek rādīts, tāka nemaz tik viegli nevar nokopēt. In the current Claude interface, you can't see token usage information. I apologize for suggesting that you could. If you need to track token usage, you would need to use the Anthropic API or a different interface that exposes this information. Slinkums iedziļināties kā API strādā. Itkā ir desktop applikācija https://claude.ai/download, bet nav pa rokai Maka uz kā izmēģināt. Nez kapēc nav viņiem Linux applikācijas.
-
Atradu topiku ar garāku saziņu, kas kļūdīgi sākās ar garu teorijas apspriešanu un vēlāk tikai rpi konfigurēšanu un rpi/ arduino koda ģenerēšanu. Iezīmēt skrollējot bija izaicinošas dažas minūtes, tokenizer toolis sākumā noķēra 'not responsive' bet galu galā Tokens 109,735 Characters 429140 Tas labi izskaidro, kādēļ GPT sen neatceras ko mēs te daram.
-
-
Atvēru vienu garāku sarunu topiku kur biju apspriedis vēstures jautājumus un palūdzu gpt - cik tokenu izmantots, atbildēja ka šādi nevarot pateikt bet varētu būt 3200. GPT norādīja uz šo rīku: https://platform.openai.com/tokenizer kur jāiepasto viss topika saturs un rīks noteica ~28k tokenu, tātad varbūt pļāpājot nepamanītu robus biedra atmiņā, bet kodā pazaudēt funkciju ir ļoti tracinoši, un šis topiks praktiski ir tuvu limitam. @AndrisBB vai Tev būtu, lūdzu, iespēja, iepastot tajā rīkā kādu no saviem Claude topikiem par kuru ir bijis brīdinājums par garumu? Ļoti interesanti pie kāda garuma tas notiek.
-
Pie garākām sarunām Claude parāda brīdinājumu, ka performance kritīšoties un labāk sākt jaunu čatu. Droši vien dēļ konteksta loga. Bet īpašas problēmas neesu novērojis. Man maksas versija, saka ka 200k tokeni.
-
Kas tur smieklīgs. Paskatoties štatu juristu kontus, kur postē policijas bodycamus, kā piemet narkotikas, ar nevainīgām frāzēm izprovocē atzīšanos, ka brauc dzērumā (lai gan nebrauc), utt. Pilnīgs hardcore bija, kur uz auto jumta nokrita zīle, tak tie psihie menti sacaurumoja mašīnu - brīnums, ka bez upuriem.
-
Esmu aptvēris konteksta loga konceptu, kas izskaidro, kādēļ, papildinot un labojot kodu, GPT mēdz aizmirst un ignorēt dažas iepriekš ieviestas funkcijas. Tāpat arī, strādājot pie kāda interesanta projekta, bieži nākas pārtraukt esošo tēmu un sākt jaunu, jo GPT nespēj "paturēt atmiņā" visu tēmas saturu. Tas izraisa situācijas, kurās nejauši tiek izlaistas vai ignorētas būtiskas detaļas. 20 EUR Plus abonementa lietotājiem ir pieejami līdz 50 pieprasījumiem nedēļā o1 versijā ar 32k konteksta logu. Savukārt PRO versijā par 200 EUR mēnesī ir pieejams 128k konteksta logs un neierobežota piekļuve o1 versijai. Forumos cilvēki min, ka Gemini ir 1M un Claude Sonnet has 200k konteksta logu. Taču daudzi norāda, ka praksē, jau sasniedzot 32k, sāk parādīties sarežģījumi un tehniskie ierobežojumi. Tas liek domāt, ka norādītie "milzīgie skaitļi" ne vienmēr atspoguļo reālo darbības efektivitāti. Varbūt kāds lieto kādu servisu, kas piedāvā piekļuvi o1 PRO versijai ar 128k konteksta logu, kur maksājums notiek tikai par izmantotajiem tokeniem? Man, piemēram, strādājot ar Python skriptiem ap 200–300 rindiņām, GPT bieži sāk zaudēt funkcijas un radīt nekonsekvences, turpinot darbu vienā un tajā pašā tēmā. Tāpēc interesējos, vai kādam ir praktiska pieredze, kā šādās situācijās rīkoties gudrāk. Par token un konteksta logu: Vai vari pievienot tabuliņu, kas norādītu teorētisku koda rindu garumu ptyhon saskaņā ar konteksta logu 8k 32k 128k 1m ja pieņem ka par kodu tiek diskutēts un tas topikā ir pārrakstīts 10 reizes. ChatGPT said: ChatGPT Lūk, tabula, kas parāda teorētisko Python koda rindu garumu atkarībā no konteksta loga lieluma (8k, 32k, 128k, 1M), pieņemot, ka kods tiek pārrakstīts 10 reizes, un katrai rindai tiek izmantots vidēji 10 tokeni (standarta Python kodam): Konteksta logs (tokens) Kopējais tokens pieejams (ievade + izvade) Teorētiskais Python rindu garums (1 pārrakstīšana) Rindu garums pēc 10 pārrakstīšanām 8k tokens 8000 tokens ~800 rindas ~80 rindas 32k tokens 32,000 tokens ~3200 rindas ~320 rindas 128k tokens 128,000 tokens ~12,800 rindas ~1280 rindas 1M tokens 1,000,000 tokens ~100,000 rindas ~10,000 rindas Aprēķinu skaidrojums: Tokeni uz rindu: Vidēji Python koda rinda aizņem 10 tokenus (vienkāršā rinda, piemēram, print("Hello, world!"), aizņem ~5–10 tokenus). Sarežģītāka rinda vai komentāri var aizņemt vairāk tokenu, bet 10 ir piemērots vidējais rādītājs. Pārrakstīšana: Katru reizi, kad kods tiek pārrakstīts vai apspriests kontekstā, iepriekšējā koda versija paliek vēsturē. 10 pārrakstīšanas cikli nozīmē, ka teorētiski izmantotais rindas garums samazinās 10 reizes. Piemērs ar 8k logu: 8000 tokens ÷ 10 tokens/rinda ≈ 800 rindas. Pēc 10 pārrakstīšanām: 800 ÷ 10 = 80 rindas. Ko tas nozīmē praksē? 8k konteksta logs ātri kļūst par ierobežojumu, ja apspriežat vai atkārtoti pārrakstāt lielus koda fragmentus. 32k logs piedāvā lielāku elastību, bet joprojām ir ierobežojums gariem projektiem ar vairāk nekā dažiem simtiem rindu, ja ir daudz pārrakstīšanas. 128k un 1M logi teorētiski ļauj strādāt ar lielām koda bāzēm, taču praktiskie sarežģījumi (piemēram, modeļa atbildes kvalitāte pie liela konteksta) var būt problēma.
-
-
-
Nu viena vieta, kur Google izmanto tos datus ir pieņemsim, ja pēkšņi kautkur ir neizskaidrojams korķis vai visi griežas pa labi, kautvai teorētiski var braukt taisni. Tad operātors vai AI var apskatīties, kas tur notiek un piekoririģēt piemēram navigāciju un sūtīt cilvēkus jau laicīgi apkārt. Kā paši Google saka - standarta lietas - ievākt datus par ceļazīmēm. Visādas interesantas fīčas jau tagad. Piemēram videoreģitrātoriem pie kuriem es tagad strādāju, var ar balss komandu likt uploadot pa taisno video uz poliču saiti. Teiksim tur agresīvs braucējs, vai kāds pārkāpj noteikumus, bīstami apdzen vai kas cits noticis. Nu vienkāršas lietas kā ja tevi aptur poliči vai kāda cita bīstama situācija, tad reģistrātors var automātiski sākt strīmu uz teiksim listi ar tev pazistamiem kontaktiem.
-
-
Foruma statistika
-
Kopā tēmu101.6k
-
Kopā ierakstu1.5m
-