Mesterséges intelligencia és a köztudat

Mesterséges intelligencia és a köztudat
2019-07-15T21:13:52+02:00
2019-07-30T05:18:23+02:00
2022-10-18T07:05:33+02:00
  • Ez függ az aktuális hormonális állapottól és a tudatos fókusztól. Nem lenne meglepő, hogy az előzőek függvényében az agy saját magának "eteti vissza" az ilyesfajta tanulnivalót.
    Mutasd a teljes hozzászólást!
  • Az emberek jogképesek, és felelősséggel tartoznak a tetteikért (jogi és erkölcsi értelemben egyaránt).

    Na és. Sokra mész vele, ha bekokainozva szembejön veled a pályán és még le is lejmol egy cigire a baleset után.
    Mutasd a teljes hozzászólást!
  • a harmadik az biztos macska :)

    de akkor fogalmazzunk így:
    Egy embernek nagyon kevés példányszámot kell látnia egy adott dologból ahhoz, hogy utána már nagy eséllyel felismerje
    Mutasd a teljes hozzászólást!
  • így van
    de most megint oda jutottunk vissza, hogy értelmes ember próbálja már meg eldönteni, hogy hol használ AI-t és hol nem.
    Ha valaki úgy érzi, hogy mission kritikus rendszerekben megéri a mai "AI"-t használni, hát lelke rajta.

    de ezt a blackbox kifejezést én nagyon sokszor hallottam már olyan helyen, ahol analitikus módszerekkel esélyed se lett volna....
    Mutasd a teljes hozzászólást!
  • Ha láttál 2 macskát, akkor már felismered a harmadikat is.

    1: http://static.digg.com/images/e84bd505d0204625aacfb3bbbc3bd9bd_42ea0..
    2: https://i.imgflip.com/2posts.jpg
    x: http://doggonewalking.ca/wp-content/uploads/2017/12/cat_drinking_sin..

    Nadamhu kapcsolódó interpetability-jét most inkább kihagyom.
    Mutasd a teljes hozzászólást!
  • Mondjuk a deep learning 'interpetability' meg az 'explainability' is aktív kutatási területek. Én mondjuk felületesen értek csak a témához, de pl. alakfelismerő hálózatok rétegei sokszor elég jól interpretálható funkciókat modelleznek.
    A gyors világmegváltásban nem hiszek, a lassú fejlődésben viszont igen. Onnan kezdve, hogy abacussal számolgattunk, elég jó eredmény, hogy már deep networkoknél tarunk. Sokmindent kell még átértékelni és felfedezni, de a fejlődés megfigyelhető. Arra, hogy a machine learning 'csak statisztika' az a válaszom, hogy a klasszikus statisztika is egy nem alábecsülendő lépcsőfok volt az abacus után, amit most kezdünk továbbfejleszteni, vagy ha úgy tetszik 'meghaladni', de még hosszú út áll előttünk.
    Mutasd a teljes hozzászólást!
  • Az emberek jogképesek, és felelősséggel tartoznak a tetteikért (jogi és erkölcsi értelemben egyaránt).
    Az ember által létrehozott rendszerek nem azok.
    Mutasd a teljes hozzászólást!
  • Az, hogy a blackbox elfogadható-e, az azért attól függ, miről van szó.
    Ahol például emberéletekről vagy nagyon nagy anyagi kárról lehet szó, ott az emberiség bizony évezredek óta a blackbox-ok kiküszöbölésén fáradozik, és ezt a "hagyományt" jó lenne megtartani a közjó érdekében.
    Mutasd a teljes hozzászólást!
  • :)

    Azért ez a blackbox "félelem" elég vicces.
    Meghogy ez egy statiksztika "feltúrbózva". Tényleg mintha az ember számos esetben nem így működne.
    Ha láttál 2 macskát, akkor már felismered a harmadikat is.
    Az evolúció itt azért elég jó munkát végzett.

    A gépeknek ehhez több adatra van szükség. Nemhiába mondjuk mindig az ügyfélnek, hogy több ezer adatra van szükség.
    Ha statisztikailag erre a több ezer (vagy millió) adatra a háló helyes eredményt ad, akkor jók vagyunk.
    Tíz adatból is meg lehet persze tanítani egy hálót, de azért annak igencsak nagy a hibaszórása.
    meg 99.85%-ot hozni elég nehéz 10 adatból....
    Érdekes amúgy, hogy mennyire látszik a komoly és a komolytalan cégek közötti különbség.
    Az előbbi képes hibaszázalékkal számolni, az utóbbi egyfolytában csak a 100%-os teljesítményt tudja mantrázni (mintha valaha is elérték volna)

    A blackbox félelemre kicsit visszatérve.
    Az ember mindig is szeret felelőst találni, ha valami nem kívánt történik.
    Itt ki lenne a felelős?
    És erre még nem érett meg a társadalom, hogy balszerencsés helyzetek mindig is lesznek.

    Szerintem nagyon-nagyon sok cég nem érett még meg a NN-re.
    Egyszer majd Ők is felnőnek hozzá, de nem kellene mindenáron erőltetni, csak azért mert "fancy"
    Mutasd a teljes hozzászólást!
  • A legnagyobb probléma ezekkel a rendszerekkel, hogy ezek egy nagy fekete dobozt alkotnak.

    Az emberek is. Mégis hagyjuk őket taxit vezetni, meg kenyeret sütni.
    Mutasd a teljes hozzászólást!
  • Azert a Crysis 1 meg ezen sem hozna a 60 fps-t... :P
    Mutasd a teljes hozzászólást!
  • Megneztem azt a brutal vasat 3 millaert:
    Annak a 120TFlops/sec tensor performance-nak (nameg a 7.5 double se semmi) nincs párja.  Amíg az AMD nem csinál vetélytársat ennek, addig ez elérhetetlen is marad.  De ôk most inkább a raytrace-szel foglalkoznak legújabban. (mármint publikusan)

    NVIDIA Bumps All Tesla V100 Models to 32GB, Effective Immediately
    Mutasd a teljes hozzászólást!
  • Félre ne értsd, amit írtam, én nem a neurális hálók, meg a deep learning ellen érveltem. Én is használom és szeretem a témát. Viszont szerintem túl van tolva a bicikli.

    Igen nagyon sok feladathoz könnyű vele gyorsan szép eredményeket elérni és valóban képes magától összefüggéseket találni. Nagyon hasznos dolog.
    Viszont nem egy Szent Grál, nem mindig ez a legjobb megoldás, jelenleg egy buzzword-ként fut a dolog.
    Lehet vele szédíteni a befektetőket, meg vonzó, hogy mesterséges intelligencia, de mint ahogy írtam, ez nem intelligencia, sima ügyes machine learning technika, nem több.

    Nem egy világmegváltó dolog és minél komplexebb dolgokat akarunk vele megoldatni, annál nagyobb kérdés, hogy valóban azt tanulta-e meg rendszer, amire megakartuk tanítani..
    Mutasd a teljes hozzászólást!
  • Továbbá:
    Található a téma indítás megértéséhez még:
    US 6,275,789 B1 - Method and apparatus for performing full bidirectional translation between a sourc

    Ebben az MI szabadalomban gépi (mesterséges fordítást) végeznek.
    A szabadalom 26 ábrából. A leírás 54 oldalból áll. Valamint rengeteg egymáshoz kapcsolt elemző programból áll.
    Mutasd a teljes hozzászólást!
  • Ugyanúgy használhatsz machine learninget a legoptimálisabb paraméterek megtalálására

    Persze, jó ötlet. Ha megvalósítható :)

    Persze hogy van, de azért itt most szuper számítógépekről beszélünk, nem arról, hogy fogsz 4 darab egyenként 400ezer forintos GPU-t és máris percek alatt megvagy a trainingel komoly problémák esetén..

    Szerintem az elvégzendő munka meghatározza a szükséges hw-t is.
    ma egy 3 kilós kártyával is egész tűrhetően lehet tanítani

    Ha meg extrém cuccra van szükség (lásd belinkelt vas), annak nyílván oka is van.
    de akkor azt ki is termeled.

    de nézhetjük más irányból is
    legyen a  feladat egy 4kx4k képen speckó hibák keresése. 
    Az annotálás vegyen el egy napot
    Erre már egy jobb háló egy nap alatt simán tanítható. Ha van két géped, akkor naponta két próbád van.
    Analízist irni rá iszonyat hosszú hetekig tart (már eleve kitalálni, hogy mit fogsz csinálni se 5 perc), aztán mégtovább a hangolása. A megírt kód tesztelése stb.

    szóval időben egyáltalán nem biztos, hogy buksz rajta
    Mutasd a teljes hozzászólást!
  • Ezt azért ajánlanám a figyelmetekbe:


    A Nemzetközi Szabadalmi Hivatal mesterséges intelligenciákra vonatkozó szabadalmi bejelentéseknél előszeretettel hivatkozik újdonságrontó meglévő ismeretre a ,

    Glen MAYER – Chiye YAMAMOTO – Martha EVENSJoel A. MICHAEL: „Constructing a knowledge base from a natural language text” című előadásának ismertető anyaga szerint (Proceeding 2nd Annual IEEE Symposium on the Computer-Based Medical Systems, 26-27 June 1989, Minneapoli, US; IEEE Comp. Soc. Press, pages 98-107; XP 000077119)

    • A mondatok megszámozása (NUMBRK) program.
    • LSP formátumba hozatal. ( Linguistic String Project elemző módszer )
    • Hirrschman, Lehrberger és Sager tanulmányához hasonló tanulmány készítése, Key Word In Context (KWIC). Ebben a fejezetben egyes szavakat, melyek sokszor jelennek meg, meghagytak, míg másokat egyedi lexikai egységként jelenítettek meg. Semmilyen következesen köthető szabály nélküli a szövegelemzés. Továbbiakban különböző programok szerint történik a szövegelemzés felépítése.
    •   Különböző szavak megjelölése (SHOWSUBSET) program.
    • Olyan mondatok kiemelése, amelyekben minden szó meghatározott (SPLIT) program.
    • Elemzés az LSP elemző programmal. (LSP) program.
    • Az elemzési fastruktúrák átalakítása információs formátumokba. Sager és Mattick munkái alapján.
    • Az információs formátumok keretekké való átalakítása (konvertálása)
    •( CIRCSIM oktató rendszer)

    Ezeket a meglévő ismereteket alkalmazza a hivatal vonatkoztatottan más vonatkozásra, mint a karakteres betű tartalomra.
    Mutasd a teljes hozzászólást!
  • statisztikát átcímkézel mesterséges intelligenciára

    És ha pénzmosást címkézek át mesterséges intelligenciára, úgy már van benne értelem?
    Mutasd a teljes hozzászólást!
  • van 1 hiperparamétere, ahol változtatgathatod a tizedeseket, hogy néz mi történik? Kapsz egy teljesen hamis illúziót, hogy Te kontrollálod a rendszert, ám valójában az egész nem más mint egy change and try loop

    Ugyanúgy használhatsz machine learninget a legoptimálisabb paraméterek megtalálására, sőt nem ördögtől való egyes jól körülhatárolt kisebb részfeladatok hatékony megoldására 'fekete doboz' használata sem szerintem sem (SVM, NN, stb..).

    azért van haladás ezen a téren :)

    Persze hogy van, de azért itt most szuper számítógépekről beszélünk, nem arról, hogy fogsz 4 darab egyenként 400ezer forintos GPU-t és máris percek alatt megvagy a trainingel komoly problémák esetén..

    Amit linkeltél:
    NVIDIA DGX SuperPOD Delivers World Record Supercomputing to Any Enterprise

    1,536 Tesla V100 SXM3 GPUs
    144 TB of HBM2 memory
    144 petaFLOPS via Tensor Cores
    Elképesztő számok...

    Majd amikor ilyesmi hw elérhető lesz egy átlag fejlesztő számára is, hogy otthon játszogasson vele akkor több értelme lesz erről beszélni :)
    NVIDIA Tesla V100 32GB PCIe
    Mutasd a teljes hozzászólást!
  • A legnagyobb probléma ezekkel a rendszerekkel, hogy ezek egy nagy fekete dobozt alkotnak. Érdemben nem is érted és nem is tudsz belenyúlni a belsejébe.

    Ez a legnagyobb gát a legtöbb ember elmléjében. Ha tudnád, hogy hánszor hallottam ezt a fekete doboz szöveget...
    Az mennyivel jobb, hogy ha van egy analízised, aminek van 172 hiperparamétere, ahol változtatgathatod a tizedeseket, hogy néz mi történik? Kapsz egy teljesen hamis illúziót, hogy Te kontrollálod a rendszert, ám valójában az egész nem más mint egy change and try loop 

    És ezzel nagyjából el is veszik az előnye az egésznek. Az algoritmusok és azok paramétereinek hangolása helyett az adatokat és a háló szerkezetével szórakozol, ráadásul minden egyes iteráció között egy elég időigényes tanítási folyamat van.

    Lásd előző hozzászólásom.
    Az tényleg gond, hogy tanítani kell. De ha egyszer megvan, akkor már csak egy jól megcsinált incremental learning kell hozzá és bármi új "könnyen" hozzáadható a jövőben (költői túlzás a könnyű)

    Ez akkor lesz érdekes szerintem, amikor elérhetőek lesznek a mostaninál sokkal nagyobb számítási kapacitások és majd már a legmegfelelőbb hierarchiát is maga az algoritmus konstruálja meg neked!

    azért van haladás ezen a téren :)
    https://www.nextbigfuture.com/wp-content/uploads/2019/07/dayshoursto..
    Mutasd a teljes hozzászólást!
  • A legnagyobb probléma ezekkel a rendszerekkel, hogy ezek egy nagy fekete dobozt alkotnak. Érdemben nem is érted és nem is tudsz belenyúlni a belsejébe.
    Szerintem sok helyen túltolják. Én apró részfeladatok megoldására szoktam használni, ha úgy alakul.
    A mesterséges intelligencia meg egy nagy hype ez körül. Ebben semmi hétköznapi értelemben vett intelligencia nincs, ahogy te is írtad statisztikai modell, univerzális függvény approximátor, nem több.
    Sok helyen hasznos és gyors általános megoldásokat kínál, viszont egy nagy fekete doboz, hogy milyen feature-ket is tanult meg egy komplex rendszer esetén.

    Persze millió megoldás van, ahol tökéletes megoldás az NN, de messze túl van hypeolva és nem ez a helyes, egyértelműen legjobb megoldás minden létező problémára..

    a háló felépítését és finomhangolását Te csinálod.

    És ezzel nagyjából el is veszik az előnye az egésznek. Az algoritmusok és azok paramétereinek hangolása helyett az adatokat és a háló szerkezetével szórakozol, ráadásul minden egyes iteráció között egy elég időigényes tanítási folyamat van.

    Ez akkor lesz érdekes szerintem, amikor elérhetőek lesznek a mostaninál sokkal nagyobb számítási kapacitások és majd már a legmegfelelőbb hierarchiát is maga az algoritmus konstruálja meg neked!
    Lsd:
    Multi-node Evolutionary Neural Networks
    Mutasd a teljes hozzászólást!
  • Pont ez a baj, hogy egyesek csak a hype-ot látják benne.
    Éppen emiatt egy egyenes egyenletét is ezzel oldanák meg.

    Valahol meg kellene férnie egymás mellett a hagyományos tudományra és a statisztikára épülő modelnek.

    Nem tudsz mindenre egyenleteket felhúzni. Ez eleve lehetetlen.
    Vannak akik eljutottak idáig, vannak akik nem.

    Minket a legszuperebb működőképes demózás közben kérdeztek arról, hogy miért nem hagyományos CV-vel oldottuk meg a problémát.
    Az emberek félnek ettől a "hype-tól". Nem ismerik rendesen, nem értik, csak azt látják, hogy a világ eddig is működött nélküle.
    Meg sem próbáltuk elmagyarázni, hogy a folyamatban rengeteg CV van és az NN csak egy kis függvényhívás valahol középen a processben.

    Lehet úgy is érvelni, hogy 99.8% pontosságot hoz konstans futási idővel.
    Nincs tele olyan CV műveletekkel, aminek a lefutása /futási ideje teljesen megjósolhatatlan.

    A világ rohadtul megváltozott
    és az új igényekre egyáltalán nem keletkeznek analitikus megoldások olyan ütemben mint régen.
    Ez betudható annak is, hogy a "hagyományos" processek általában kifejezetten lineárisak.

    Az egyes részeket még tudod párhuzamosítani, de a cucc végeredményben egymásra épülő függvények sokasága. Kimehet GPU-ra aztán vagy van rá már létező OpenCV függvény vagy Te írod meg (és most nem csak képekre gondolok, mert ezek kifejezetten mátrixok).

    Ha már kellett valaha is irnod ilyen függvényt CUDA-ban, akkor tudod, hogy nem csak szimpla mátrix szorzás és összeadás. Sőt néha csak több kernel-ből álló iteratív megoldás létezik.
    Olyannyira, hogy néha az idő miatt kiugrási feltételt kell szabnod (ha x időegység alatt nem kapsz értékelhető megoldást, mert akkora a zaj)

    Az NN viszont egy az egyben párhuzamos. Az input felmegy aztán sok dolgod nincs vele, a többi már kb elemi matek amire GPU-k ki vannak hegyezve.
    Tökmindegy mi az input az ugyanannyi idő alatt fog lefutni. (najó,láttam már python TF-ben falon pókot)

    Maradva a "hype" vonalon, aki teheti persze, hogy bele akar ugrani.
    Ezt ugyanúgy meg kell tanulni.
    Sőt igazából ha létezik qrva unalmas meló, akkor az annotálás és a hálóbirizgálás pont ezek közé tartozik.
    És míg az annotálást rábizhatod egy idomított majomra is (lelked rajta, hiszen az annotált adat nagyban meghatároz mindent) addig a háló felépítését és finomhangolását Te csinálod.

    Kapsz egy eredményt: 95% pontosság.
    És most mit változtass meg? A learning rate-et, vagy a momentumot. Esetleg menjen bele még egy réteg conv?
    A félreértések végett az analitikus megoldás is tele van ilyen hyperparaméterekkel (néha többszázzal), aminek a beállításához szintén érteni kell. Az már más kérdés, hogy ez azonnal kiderül egy futtatással, míg a hálót újra kell tanítanod.
    Mutasd a teljes hozzászólást!
  • Mutasd a teljes hozzászólást!
  • Ne várd annyira azért a hype megszűnését. Most még vödörrel öntik a pénzt arra, hogy statisztikát átcímkézel mesterséges intelligenciára, vagy épp arra, hogy kiszervezed a munkát indiaiaknak két tál rizsért, és eladod őket mesterséges intelligenciának (megtörtént eset).
    De ha a hype megszűnik, senki se fog pénzt adni olyan fejlesztésre, aminek senki se látja a gyakorlati hasznát. Ma spekuláció miatt megy bele pénz, azt meg a hype hajtja, azt remélik nagy dolog lesz, és korán akarnak befektetni a dologba, nehogy kimaradjanak belőle, ha véletlen megváltaná a világot.
    Mutasd a teljes hozzászólást!
  • Tökéletes definíciónak gondolom, amit leírtál. Azt gondolom a témát nagyon jól ismerem. Még 2002 – ben volt ebben a tárgyban PCT nemzetközi szabadalmi bejelentésem. Ennél fogva az újdonságkutatás során számtalan 50-60 meglévő szabadalmat lehet megismerni. A nemzetközi vonatkozásban több ezer szabadalmi bejelentés, szerzői jogi szoftver regisztrálás van.

    Azt mondanám. 100 %-ban egy valamilyen adatbázisból különböző módod és „utakon” érik el a keresett – kívánt eredményt. De Ez valójában statisztikai adat-cél megkeresése.

    A kívánt újdonságra irányuló ismert megoldások fajtáj, száma, egyes elemek akár újdonságrontó hatása számtalan. De még a mesterséges számítógépes gondolkozásra szabadalmi bejelentést tenni sem egyszerű dolog. Még ha látszólag „szó szerint” a bejelentés tárgya alapján rendkívül kevés van bejegyezve, vagy tudományosan publikálva. Mert az is újdonságrontó a szabadalmaztathatóság vonatkozásában. Tehát MI, MG újdonságismereti anyag határtalan mennyiség.
    Mutasd a teljes hozzászólást!
  • A "Mesterséges intelligencia", amely alatt ma többnyire kizárólag a neuronhálókat meg a gépi tanulást értik egyesek, tulajdonképpen egy statisztikai módszer. Ez egyelőre csak egy gut feeling (bár ráérnék ezzel a témával többet foglalkozni), de én nem igazán hiszem el, hogy csak statisztikai módszerekkel a világ összes problémáját meg lehetne oldani. 

    A neuronhálóval tulajdonképpen egy adott szűk szakterületet véve meg tudjuk jósolni, hogy egy adott konkrét problémát tekintve az emberi intelligencia milyen megoldással állna elő. Ez kétségkívül nagyon hasznos, ezért nem hiszem, hogy ez az egész téma 5-10 év távlatában elsüllyedne. Egyszerűen csak túl van hype-olva az egész, no ez a hype remélhetőleg meg fog szűnni idővel.
    Mutasd a teljes hozzászólást!
  • Nem a nyers tudás (memória értelemben) meg a nyers képesség (pl. számítási kapacitás) az intelligencia, hanem ha ezt önálló döntés alapján valamire fel is használod.
    Mutasd a teljes hozzászólást!
  • Amikor a gyerek megszületik, akkor egyedül teljesen életképtelen
    Akkor most az ember intelligens?
    tanítani kell (akárcsak egy neuronhálót)
    Akkor most az ember ugyanannyi mint egy MI?

    Az Amazon őserdők lakosai valszeg nem tudnak írni, olvasni.
    Mégis képesek életben maradni ott, ahol Te biztos megpunnyadnál napok (talán órák) alatt.
    Ugyanakkor Ő itt a városban szinte biztos tovább húzná.
    Akkor most Ki az intelligensebb? vagy inkább úgy kérdem, hogy mire mész vele?

    Az MI ugyanígy egy adott környezetre tanul rá, ahol köröket ver az emberre
    stabilan hozza az elvárt eredményt, nem hibázik azért mert fáj a feje vagy mert megvan, vagy mert másnapos
    Tudása percek alatt átrakható egyik gépről a másikra és 7/24-ben képes menni
    A főnököt vajon mennyire érdekli majd, hogy Te tudsz integrálni (írni, olvasni) amikor egy gép kvázi ingyen csinálja azt amit Te sose tudnál ilyen minőségben?
    Akkor most ki az intelligens?

    Te vajon gép vagy MI-vel felvértezve?
    Apád-Anyád összerakott, tanítottak, időnként elromlik valami, majd lejár a garancia
    Mutasd a teljes hozzászólást!
  • De ne aggódj 5-10 év múlva már a kutya se fog mesterséges intelligenciával villogni.

    mivel ez nem az első nekifutása az emberiségnek, azért erre nem mernék nagy tételben fogadni
    Mutasd a teljes hozzászólást!
  • Így igaz.
    Mutasd a teljes hozzászólást!
  • Ha ez a link most arra utal, hogy intelligens csak személy lehet, és az intelligenciális ennek a nem-személyekre használható megfelelője volna, akkor a példaként felhozott Windows és programjai viselkedése nem intelligenciális: a történések értelmességét a kezelő személy adja hozzá, az alkalmazások nem értik, hogy mit csinálnak. Pontosan azt csinálják és úgy, amit és ahogy ember mond nekik, se többet, se kevesebbet, csak jó esetben gyorsan. Végfelhasználó persze rácsodálkozhat, hogy milyen "okosan"/"bután" működik egy program, de azt a működést is ember találta ki, a programozó.
    Mutasd a teljes hozzászólást!
Tetszett amit olvastál? Szeretnél a jövőben is értesülni a hasonló érdekességekről?
abcd