Nagyobb rekordszám belassulása.
2015-02-10T18:13:51+01:00
2015-02-11T22:23:16+01:00
2022-07-19T03:57:04+02:00
  • Kotorj bele azokba a cuccokba, hookold le az összes db-re irányuló függvényt, és akkor kényelmesen megszámolhatod, hány query ment ki egy felhasználói funkció során. Aztán küldj rá teszt eseteket, és lesz róla statisztikád. Hogy konkrétan melyik milyen - nézd meg a saját szemeddel, ha érdekel, engem ugyan ne zaklass miatta
    Mutasd a teljes hozzászólást!
  • A keretek úgy supportolják a feature bővítéseket, hogy mindig egyre több query per function - egymásba vannak ágyazva - és a db io nagyon megeszi a php-t.

    Ez igaz a symfony-ra meg a laravelre , meg a joomlara, mega a WP-re... meg az összes keretrendszerre ?
    Minél újabb a keretrendszer, annál rosszabb a performance ?
    Mutasd a teljes hozzászólást!
  • Még kétmilliónál sem kellene. Nem az a baja a php-nak a gyakorlatban. A keretek úgy supportolják a feature bővítéseket, hogy mindig egyre több query per function - egymásba vannak ágyazva - és a db io nagyon megeszi a php-t. Sorban hajtja végre, nulla párhuzamos szervezettség. Rakj fel egy mezei php / mysql csomagot a gépedre és kuksizd meg, 15 - 20 query per sec sebességet visz nyersen. Az még lassul tovább, ha a script motor eszi a procit. Szóval elkezdik hízlalni az appot, és egyszer csak a 2000 rekordos táblában már percekig fog kotorászni.
    Mutasd a teljes hozzászólást!
  • Mondjuk nem kétezer, hanem pl. kétszázezer vagy kétmillió rekord körül már eljön a pillanat, amikor kell valaki (egy u.n. DB-adminisztrátor), aki gondozgatja az adatbázist, időnként ment, időnként statisztikákat készít, megtervezi és igény szerint módosítja az indexeket, stb... és persze belassulás esetén kigyorsítja a rendszert...
    Mutasd a teljes hozzászólást!
  •  A mysql alkalmas-e erre a feladatra(nyilván, hiszen erre tervezték), de mégis belassulhat-e a későbbiek során?

    Be. Bár ahhoz általában már igen nagy (százezres, milliós) rekordszám kell vagy nagyon összetett join-ok. Pár ezer vagy tízezer rekordnál még a legrosszabb adatszerkezet esetén sem lehet, illetve igen nehéz problémás szintre lassítani.

    Vagy van e valami jó tanács nagy rekordszám lekérés esetén?

    Mindig legyenek indexeid a gyakran használt keresési feltételekre, beleértve a join-okban hivatkozott idegen kulcs mezőket is! Ha nincs index ezekre a mezőkre, akkor csak szekvenciális kereséssel tudja megtalálni a hivatkozott/keresett sort az adatbáziskezelő, ami nagy rekordszám esetén nagyon lassú művelet tud lenni. Index birtokában ugyanakkor a keresés B-fák mentén történhet, ami nagyságrendekkel gyorsabb tud lenni.
    Mutasd a teljes hozzászólást!
  • régi open cart adatbázist kellett a sajátomra alakÍtanom és kinyernem a saját adatbázisomba

    És az openCart most melyik db-t használlja?
    itt valamit nagyon elszúrhattál.

    2000 rekord....
    Nekem majdnem ennyi kategóriám van egy rádio-amatőr és alkatrész opencart webboltban. És amikor frissítettem, kötelező backup után a hivatalos ugrade database szkriptet használtam, s adatokkal együtt fennakadás nélkül átfordult.
    Mutasd a teljes hozzászólást!
  • 2000 rekord az nudli... nem emiatt lassú a dolog!
    Mutasd a teljes hozzászólást!
  • Jelenleg régi open cart adatbázist kellett a sajátomra alakÍtanom és kinyernem a saját adatbázisomba. Ebben van 2000 termék rekord. Ezek több 1to1 kapcsolatokkal meg many to many kapcsolattal rendelkezik. Ezért kérdezem.
    Mutasd a teljes hozzászólást!
  • De a 2000 rekordnál mire gondolsz? Táblában van annyi? Mert nekem van 275 ezres táblám is és igen csak gyors a keresés. Nem vagyok tisztában mysql-el annyira, de tippem szerint sima bináris keresést használ alap esetben, szóval nálad 11 lépésből még bármit meg kell hogy találjon.
    Mutasd a teljes hozzászólást!
  • Sziasztok!
    Felkértek egy webshop készÍtésére. Open cart volt az előd, ami lassú volt és elég sok dolgot kellett volna benne átÍrni, hogy szép és jó legyen a számukra.

    Laravel-t szoktam használni, és bootstrapet a html framework gyanánt. A helyzet az, hogy sok féle weboldalt készÍtettem már, sok bonyolult adatbázist terveztem és kezeltem, de ekkora rekordszámhoz még nem volt szerencsém.


    A helyzet az, hogy jelenleg 2000+ rekord van jelenleg már. És persze ezt bővÍteni fogják. A mysql alkalmas-e erre a feladatra(nyilván, hiszen erre tervezték), de mégis belassulhat-e a későbbiek során? Vagy van e valami jó tanács nagy rekordszám lekérés esetén? Válaszaitokat előre is köszönöm. Elnézést, ha ez már beletartozik a több kérdés egy posztban kategóriába!!!
    Mutasd a teljes hozzászólást!
abcd