src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Vi introducerar en ny variationsformulering för problemet med att rekonstruera en vattentät yta definierad av en implicit ekvation, från en ändlig uppsättning orienterade punkter; ett problem som har väckt stor uppmärksamhet i mer än två decennier. Som i Poisson Surface Reconstruction approach, diskretizations av den kontinuerliga formuleringen minska till lösningen av gles linjära system av ekvationer. Men i stället för att tvinga den implicita funktionen att approximera indikatorfunktionen hos den volym som avgränsas av den implicita ytan, tvingas den implicita funktionen i vår formulering att vara en jämn approximation av den undertecknade distansfunktionen till ytan. Eftersom en indikatorfunktion är okontinuerlig, finns inte dess lutning exakt där den behöver jämföras med normala vektordata. Den släta signerade avståndet har ungefärlig enhet lutning i närheten av datapunkterna. Som ett resultat, den normala vektordata kan införlivas direkt i energifunktionen utan implicit funktion utjämning. Dessutom, snarare än att först utvidga de orienterade punkterna till ett vektorfält inom den avgränsande volymen, och sedan tillnärma vektorfältet med ett gradientfält i minsta kvadrat betydelse, här vektorfältet begränsas till att vara lutningen av den implicita funktionen, och ett enda variationsproblem löses direkt i ett steg. Formuleringen möjliggör ett antal olika effektiva diskretiseringar, minskar till en ändlig minsta kvadrat problem för alla linjärt parameteriserade familjer av funktioner, och kräver inte gränsförhållanden. De resulterande algoritmerna är betydligt enklare och lättare att implementera, och ger resultat av kvalitet jämförbar med toppmoderna algoritmer. Ett effektivt genomförande baserat på en primal-graph octree-baserad hybrid finita element-finita skillnaden diskretization, och Dual Marching Cubes isosurface extraktion algoritm, visas producera hög kvalitet crack-fri adaptive multiple polygon meshes.
Smidig signerad distans ytrekonstruktion REF återvinner en volymetrisk implicit ytrepresentation från de orienterade punkterna med hjälp av en varierad energiminimering formulering.
15,971,632
SSD: Smooth Signed Distance Surface Reconstruction
{'venue': 'Comput. Graph. Forum', 'journal': 'Comput. Graph. Forum', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,220
Återkommande neurala nätverk (RNN) gradvis bearbeta data genom att uppdatera deras tillstånd med varje ny datapunkt, och har länge varit de facto valet för sekvensmodellering uppgifter. Men deras i sig sekventiella beräkning gör dem långsamma att träna. Feed-forward och convolutional arkitekturer har nyligen visat sig uppnå överlägsna resultat på vissa sekvensmodellering uppgifter som maskinöversättning, med den extra fördelen att de samtidigt bearbeta alla ingångar i sekvensen, vilket leder till enkel parallellisering och snabbare träningstider. Trots dessa framgångar lyckas dock populära feed-forward sekvensmodeller som Transformer inte generalisera i många enkla uppgifter som återkommande modeller hanterar enkelt, t.ex. kopiera strängar eller till och med enkel logisk slutledning när strängen eller formeln längder överskrider de observerade vid träningstid. Vi föreslår Universal Transformer (UT), en parallell-i-tid självuppmärksam återkommande sekvensmodell som kan användas som en generalisering av Transformer-modellen och som tar upp dessa frågor. Uts kombinerar parallellisability och globalt mottagligt fält av feed-forward sekvens modeller som Transformer med återkommande induktiva fördomar av RNNs. Vi lägger också till en dynamisk mekanism för att stoppa perposition och finner att den förbättrar noggrannheten på flera uppgifter. I motsats till standardtransformer, kan enligt vissa antaganden UTs visas vara Turing-fullständig. Våra experiment visar att UTs överträffar standard Transformers på ett brett spektrum av algoritmiska och språkförståelse uppgifter, inklusive den utmanande LAMBADA språkmodellering uppgift där UTs uppnå en ny state of the art, och maskinöversättning där UTs uppnå en 0,9 BLEU förbättring över Transformers på WMT14 En-De dataset.
Transformator misslyckas med att generalisera i många enkla uppgifter, t.ex. kopiera sträng och logisk slutsats REF.
49,667,762
Universal Transformers
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,221
Abstract-Detecting den fria vägytan framför ett fordon i rörelse är en viktig forskningsämne inom olika områden av datorseende, såsom autonom körning eller bilkollision varning. Nuvarande visionsbaserade vägdetekteringsmetoder är vanligtvis enbart baserade på lågnivåfunktioner. Dessutom antar de i allmänhet strukturerade vägar, vägjämlikhet och enhetliga ljusförhållanden, vilket begränsar deras tillämplighet i verkliga scenarier. I detta dokument införs tidigare vägbeskrivningar och kontextuell information för vägdetektering. För det första föreslår vi en algoritm för att uppskatta trafikförseelser online med hjälp av geografisk information, vilket ger relevant inledande information om vägens läge. Sedan, kontextuella signaler, inklusive horisont linjer, försvinnande punkter, körfältsmarkeringar, 3-D scen layout, och väg geometri, används förutom låg nivå köer som härrör från utseendet på vägar. Slutligen används en generativ modell för att kombinera dessa signaler och tidigare, vilket leder till en vägdetekteringsmetod som i hög grad är robust till varierande bildförhållanden, vägtyper och scenarier.
Alvarez m.fl. REF presenterar en algoritm för att uppskatta trafikförseelser med hjälp av geografiska informationssystem (GIS), som kan ge relevant inledande information om vägen.
2,467,569
Combining Priors, Appearance, and Context for Road Detection
{'venue': 'IEEE Transactions on Intelligent Transportation Systems', 'journal': 'IEEE Transactions on Intelligent Transportation Systems', 'mag_field_of_study': ['Computer Science', 'Engineering']}
82,222
Text i naturliga bilder är av godtyckliga orienteringar, kräver detektion i termer av orienterade avgränsande rutor. Normalt innebär en multiorienterad textdetektor ofta två viktiga uppgifter: 1) detektion av textnärvaro, vilket är ett klassificeringsproblem som bortser från textorientering; 2) orienterad begränsningsruta regression, som handlar om textorientering. Tidigare metoder bygger på gemensamma funktioner för båda uppgifterna, vilket leder till försämrad prestanda på grund av de två uppgifternas oförenlighet. För att ta itu med denna fråga, föreslår vi att utföra klassificering och regression på funktioner av olika egenskaper, extraheras av två nätverk grenar av olika konstruktioner. Konkret extraherar regressionsgrenen rotationskänsliga egenskaper genom att aktivt rotera konvolutionsfiltren, medan klassificeringsgrenen extraherar rotationsinvarianta egenskaper genom att slå ihop rotationskänsliga egenskaper. Den föreslagna metoden med namnet Rotationkänslig Regressionsdetektor (RRD) uppnår toppmodern prestanda på flera orienterade textriktmärken, inklusive ICDAR 2015, MSRA-TD500, RCTW-17 och COCO-Text. Dessutom uppnår RRD en betydande förbättring av datauppsättningen för fartygsinsamling, vilket visar dess allmängiltighet när det gäller orienterad objektdetektering.
RRD REF tillämpar rotationsinvarianta och känsliga funktioner för textklassificering och regression från två separata grenar för bättre långtextdetektering.
3,867,497
Rotation-Sensitive Regression for Oriented Scene Text Detection
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
82,223
Abstract-existing förutsägelse metoder i flytta objekt databaser kan inte förutsäga platser exakt om frågetiden är långt från den nuvarande tiden. Även för en nära framtid förutsägelse, de flesta tekniker antar banan av ett objekts rörelser kan representeras av några matematiska formler av rörelsefunktioner baserade på dess senaste rörelser. Ett objekts rörelser är dock mer komplicerade än vad de matematiska formlerna kan representera. Förutsägelse baserad på ett objekts bana mönster är ett kraftfullt sätt och har undersökts av flera arbete. Men deras främsta intresse är hur man upptäcker mönster. I detta dokument presenterar vi ett nytt förutsägelsesätt, nämligen The Hybrid Prediction Model, som uppskattar ett objekts framtida platser baserat på dess mönsterinformation samt befintliga rörelsefunktioner med hjälp av objektets senaste rörelser. Specifikt, ett objekts bana mönster som har ad-hoc former för förutsägelse upptäcks och sedan indexeras av en ny åtkomstmetod för effektiv frågebehandling. Dessutom presenteras två frågebehandlingstekniker som kan ge exakta resultat för både nära och avlägsen tid prediktiva frågor. Våra omfattande experiment visar att föreslagna tekniker är mer exakta och effektiva än befintliga prognossystem.
Jeung et al., föreslog en förutsägelse metod som heter Hybrid Prediction Model (HPM) REF för gruvdrift banan mönster av ett rörligt objekt.
2,366,246
A Hybrid Prediction Model for Moving Objects
{'venue': '2008 IEEE 24th International Conference on Data Engineering', 'journal': '2008 IEEE 24th International Conference on Data Engineering', 'mag_field_of_study': ['Computer Science']}
82,224
Inlärning omvandling invarianta representationer av visuell data är ett viktigt problem i datorseende. Djupa konvolutionella nätverk har visat anmärkningsvärda resultat för bild- och videoklassificeringsuppgifter. De har dock endast uppnått begränsad framgång i klassificeringen av bilder som genomgår geometriska omvandlingar. I detta arbete presenterar vi en roman Transformation Invariant Graph-baserat nätverk (TIgraNet), som lär sig grafbaserade funktioner som är inneboende invarianta till isometriska omvandlingar såsom rotation och översättning av indatabilder. I synnerhet är bilder representerade som signaler på grafer, som gör det möjligt att ersätta klassisk konvolution och poolning lager i djupa nätverk med grafspektrala konvolution och dynamiska graf pooling lager som tillsammans bidrar till invarians till isometriska transformationer. Våra experiment visar hög prestanda på roterade och översatta bilder från testuppsättningen jämfört med klassiska arkitekturer som är mycket känsliga för transformationer i data. De inneboende variabilitetsegenskaperna i vårt ramverk ger viktiga fördelar, såsom ökad relevans för datavariabilitet och ihållande prestanda med begränsade träningsset.
REF representerade bilder som signaler på grafen och lärde sig deras transformationsinvarianta representationer.
906,304
Graph-based Isometry Invariant Representation Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,225
Abstrakt. Konceptrekommendation är en allmänt använd teknik som syftar till att hjälpa användare att välja rätt taggar, förbättra deras webbsökning upplevelse och en mängd andra uppgifter. För att hitta potentiella problemlösare i Open Innovation (OI) scenarier är konceptrekommendationen av avgörande betydelse eftersom den kan bidra till att upptäcka rätt ämnen, direkt eller i sidled relaterade till ett innovationsproblem. Sådana ämnen skulle då kunna användas för att identifiera relevanta experter. Vi föreslår två länkade databaserade koncept rekommendationsmetoder för ämnesupptäckt. Den första, hyNärheten, utnyttjar endast särdragen hos länkade datastrukturer, medan den andra tillämpar en välkänd informationsinsamlingsmetod, Random Indexing, på de länkade uppgifterna. Vi jämför de två metoderna mot utgångsvärdet i de guldbaserade standard- och användarstudiebaserade utvärderingarna med hjälp av de verkliga problemen och lösningarna från ett OI-företag.
I Open Innovation (OI) scenarier, där företag outsourca uppgifter till ett nätverk av samarbetspartners, Damljanovic et al. REF presenterar en länkad databaserad konceptrekommendationsmetod för ämnesupptäckt som används för att matcha innovationsproblem och experter.
6,057,825
Linked data-based concept recommendation: comparison of different methods in open innovation scenario
{'venue': 'ESWC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,226
Abstract-Vi presenterar en allmän objektitet mäter, kvantifierar hur troligt det är för ett bildfönster att innehålla ett objekt av någon klass. Vi utbildar den uttryckligen för att skilja föremål med en väldefinierad gräns i rymden, såsom kor och telefoner, från amorfa bakgrundselement, såsom gräs och väg. Åtgärden kombinerar i ett Bayesianskt ramverk flera bildsignaler mäta egenskaper av objekt, såsom visas annorlunda från sin omgivning och har en sluten gräns. Till dessa hör en innovativ signal för att mäta den slutna gränsen. I experiment på den utmanande PASCAL VOC 07 dataset, visar vi denna nya kö för att överträffa en state-of-the-art Saliency åtgärd, och den kombinerade objektitet åtgärd för att prestera bättre än någon kö ensam. Vi jämför också med intressepunkters operatörer, en HOG-detektor, och tre nya verk som syftar till automatisk objektsegmentering. Slutligen presenterar vi två tillämpningar av objektitet. I den första, vi provar ett litet antal fönster efter deras objektitet sannolikhet och ge en algoritm för att använda dem som plats tidigare för moderna klass-specifika objektdetektorer. Som vi visar experimentellt minskar detta kraftigt antalet fönster som utvärderas av den dyra klassspecifika modellen. I den andra ansökan använder vi objektitet som en kompletterande poäng utöver den klassspecifika modellen, vilket leder till färre falska positiva. Som visas i flera senaste papper, objektness kan fungera som en värdefull fokusering uppmärksamhet mekanism i många andra program som arbetar på bildfönster, inklusive svagt övervakad inlärning av objektkategorier, oövervakad pixelwise segmentering, och objektspårning i video. Datorobjektiviteten är mycket effektiv och tar bara ca 4 sek. per bild.
Alexe och Al. REF inför ett generiskt objektitetsmått baserat på tre objektegenskaper: väldefinierade konturer, kontrast till omgivningen och unikhet inom en bild.
7,316,529
Measuring the Objectness of Image Windows
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,227
I detta dokument anser vi att matrisen slutföra problem när observationerna är en bit mätningar av vissa underliggande matris M, och i synnerhet de observerade proverna består endast av ettor och inga nollor. Detta problem motiveras av moderna tillämpningar som recommender system och sociala nätverk där endast "gillar" eller "friendships" observeras. Problemet med att lära från endast positiva och omärkta exempel, som kallas PU (positiv-omärkt) lärande, har studerats i samband med binär klassificering. Vi anser att PU-matrisen slutföra problemet, där en underliggande real värderad matris M först kvantifieras för att generera en bit observationer och sedan en delmängd av positiva poster avslöjas. Under antagandet att M har avgränsat kärnnorm, ger vi återvinningsgarantier för två olika observationsmodeller: 1) M parameteriserar en distribution som genererar en binär matris, 2) M är tröskel för att erhålla en binär matris. I det första fallet föreslår vi en "förändrad matriskomplettering" metod som återvinner M med endast en undergrupp av index som motsvarar dem, medan vi för det andra fallet föreslår en "fördjupad matriskomplettering" metod som återvinner (tröskeln) binärmatris. Båda metoderna ger starka felgränser - om M till R n×n, Frobenius fel avgränsas som O 1 (1-ρ)n, där 1 - ρ betecknar fraktionen av de observerade. Detta innebär en prov komplexitet av O(n log n) de för att uppnå ett litet fel, när M är tät och n är stor. Vi utökar våra metoder och garantier till den nyligen föreslagna induktiva matriskompletteringsproblem, där rader och kolumner av M har tillhörande funktioner. Vi tillhandahåller effektiva och skalbara optimeringsförfaranden för både metoderna och visar effektiviteten hos de föreslagna metoderna för kopplingsförutsägelse (på verkliga nätverk som består av över 2 miljoner noder och 90 miljoner länkar) och halvövervakade klusteruppgifter.
Som svar på ett sådant fall föreslog REF att PU-matrisen skulle färdigställas.
3,534,908
PU Learning for Matrix Completion
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,228
Text-oberoende skribent identifiering är utmanande på grund av den enorma variationen av skriftligt innehåll och tvetydiga skrivna stilar av olika författare. Denna artikel föreslår DeepWriter, en djup multi-stream CNN för att lära sig djup kraftfull representation för att erkänna författare. DeepWriter tar lokala handskrivna plåster som ingång och tränas med softmax klassificering förlust. De viktigaste bidragen är: 1) vi utformar och optimerar multi-stream struktur för skribent identifiering uppgift; 2) vi introducerar data förstärkning lärande för att förbättra prestanda DeepWriter; 3) vi introducerar en patch scanning strategi för att hantera text bild med olika längder. Dessutom finner vi att olika språk som engelska och kinesiska kan dela gemensamma funktioner för skribent identifiering, och gemensam utbildning kan ge bättre prestanda. Experimentella resultat på IAM och HWDB dataset visar att våra modeller uppnår hög identifieringsnoggrannhet: 99,01% på 301 författare och 97,03% på 657 författare med en engelsk meningsinput, 93,85% på 300 författare med en kinesisk teckeninmatning, som överträffar tidigare metoder med stor marginal. Dessutom får våra modeller en noggrannhet på 98,01% på 301 författare med endast 4 engelska alfabet som ingång.
En djup multistream CNN föreslås i REF för att lära sig djupa funktioner för skribent identifiering.
2,308,618
DeepWriter: A Multi-stream Deep CNN for Text-Independent Writer Identification
{'venue': '2016 15th International Conference on Frontiers in Handwriting Recognition (ICFHR)', 'journal': '2016 15th International Conference on Frontiers in Handwriting Recognition (ICFHR)', 'mag_field_of_study': ['Computer Science']}
82,229
Datautvinningstillämpningar ställer särskilda krav på klusteralgoritmer, inklusive förmågan att hitta kluster inbäddade i subrymder med data med hög dimension, skalbarhet, slutanvändarförståelse för resultaten, icke-presumtion av eventuell kanonisk datadistribution och okänslighet för indataposter. Vi presenterar CLIQUE, en klusteralgoritm som uppfyller vart och ett av dessa krav. CLIQUE identifierar täta kluster i subrymder med maximal dimensionalitet. Den genererar klusterbeskrivningar i form av DNF-uttryck som minimeras för att underlätta förståelsen. Den producerar identiska resultat oberoende av i vilken ordning inmatningsposter presenteras och förutsätter inte någon specifik matematisk form för datadistribution. Genom experiment visar vi att CLIQUE effektivt hittar exakta kluster i stora högdimensionella datauppsättningar.
Agrawal m.fl. utforma sin klusteralgoritm för att generera utdata i form av ett DNF-uttryck, för att underlätta tolkningen REF.
1,260,437
Automatic subspace clustering of high dimensional data for data mining applications
{'venue': "SIGMOD '98", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,230
Bakgrund: Feber är en av de vanligaste biverkningarna med vacciner. De detaljerade mekanismerna för feber och vaccinassocierade geninteraktionsnätverk är inte helt klarlagda. I den aktuella studien använde vi en genom-wide, Centrality and Ontology-baserad Network Discovery med hjälp av litteraturdata (CONDL) för att analysera gener och geninteraktionsnätverk i samband med feber eller vaccinrelaterade febersvar. Resultat: Över 170.000 feberrelaterade artiklar från PubMed abstracts och titlar återfanns och analyserades på meningsnivå med hjälp av tekniker för bearbetning av naturligt språk för att identifiera gener och vacciner (inklusive 186 vaccine ontologitermer) samt deras interaktioner. Detta resulterade i ett generiskt febernätverk bestående av 403 gener och 577 geninteraktioner. Ett vaccinspecifikt undernätverk för feber bestående av 29 gener och 28 geninteraktioner utvanns ur artiklar som är relaterade till både feber och vacciner. Dessutom identifierades interaktioner mellan genvacciner. Vacciner (inklusive 4 specifika vaccinnamn) visade sig interagera direkt med 26 gener. Genuppsättning anrikningsanalys utfördes med hjälp av generna i de genererade interaktionsnätverken. Dessutom prioriterades generna i dessa nätverk med hjälp av nätcentralitetsmått. Att göra vetenskapliga upptäckter och generera nya hypoteser var möjligt genom att använda nätverk centralitet och genuppsättning anrikning analyser. Till exempel, vår studie fann att generna i det generiska febernätverket var mer berikade i celldöd och svar på sår, och vaccinet sub-nätverk hade mer genberikning i leukocytaktivering och fosforylering reglering. De mest centrala generna i det vaccinspecifika febernätverket förväntas vara mycket relevanta för vaccininducerad feber, medan gener som endast är centrala i det generiska febernätverket sannolikt är mycket relevanta för det generiska febersvaret. Det är intressant att lägga märke till att det inte fanns några avgiftsliknande receptorer (TLR) i det genvaccinerade interaktionsnätverket. Eftersom flera TLR påträffades i det generiska febernätverket är det rimligt att anta att vaccin-TLR-interaktioner kan spela en viktig roll för att framkalla febersvar, vilket förtjänar ytterligare en undersökning.
Man genererar automatiskt ett interaktionsnätverk som beskriver genengagemang i vaccinrelaterad feber med 170 000 citeringar från en PubMed-sökning och en vaccinspecifik ontologi REF.
1,522,149
Identification of fever and vaccine-associated gene interaction networks using ontology-based literature mining
{'venue': 'Journal of Biomedical Semantics', 'journal': 'Journal of Biomedical Semantics', 'mag_field_of_study': ['Medicine', 'Computer Science']}
82,231
Både konvolutionella och återkommande operationer är byggstenar som bearbetar ett område i taget. I detta dokument presenterar vi icke-lokal verksamhet som en generisk familj av byggstenar för att fånga långdistansberoenden. Inspirerad av den klassiska icke-lokala metoden [4] i datorseende, beräknar vår icke-lokala operation svaret på en position som en viktad summa av funktioner på alla positioner. Detta byggnadsblock kan anslutas till många datorseende arkitekturer. När det gäller videoklassificering, även utan klockor och visselpipor, kan våra icke-lokala modeller konkurrera eller överträffa nuvarande tävlingsvinnare på både Kinetics och Charades datauppsättningar. I statisk bildigenkänning förbättrar våra icke-lokala modeller objektdetektering/segmentering och ger en uppskattning i COCO-sviten av uppgifter. Kod kommer att göras tillgänglig.
Ett relaterat arbete för icke-lokal funktionsberäkning föreslås av Wang et al. REF, där svaret på en position är den viktade summan av funktioner på alla platser.
4,852,647
Non-local Neural Networks
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
82,232
I detta dokument överväger vi en version av noll-shot inlärningsproblem där sett klass käll- och måldomändata tillhandahålls. Målet under testtiden är att exakt förutsäga klassbeteckningen för en osynlig domäninstans baserad på avslöjad källdomäninformation (t.ex. attribut) för osedda klasser. Vår metod är baserad på att se varje källa eller måldata som en blandning av synliga klass proportioner och vi postulerar att blandningen mönster måste vara liknande om de två fallen tillhör samma osynliga klass. Detta perspektiv leder oss till att lära källa / mål inbäddning funktioner som kartlägger en godtycklig källa / måldomän data i samma semantiska utrymme där likhet kan lätt mätas. Vi utvecklar ett maxmarginalramverk för att lära oss dessa likhetsfunktioner och gemensamt optimera parametrar genom korsvalidering. Våra testresultat är övertygande, vilket leder till betydande förbättringar i fråga om noggrannhet på de flesta referensdatauppsättningar för noll-shot-igenkänning.
REF inbäddade käll- och måldomändata i semantiskt utrymme, dvs. Blanda proportioner av synliga klasser.
446,581
Zero-Shot Learning via Semantic Similarity Embedding
{'venue': '2015 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2015 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,233
ABSTRACT Ökande trend av peering på Internet utbytespunkter (IXPs) ger en topologisk och nätverkshantering fördel till Internet tjänsteleverantörer (ISPs) som annars inte är möjligt genom individuella peering arrangemang med sina angränsande domäner. Internetleverantörer fortsätter att analysera potentiella fördelar till peer på geografiskt diversifierade IXPs. En ökad grad av multihoming i Internetleverantörer kräver omfattande samordning mellan Internetleverantörer i olika roller (tillträde och transitering), till ömsesidig nytta. Vi föreslår ett nytt tillvägagångssätt för att bygga upp en gynnsam samverkan mellan nätverk för framtida datacentrerade tillämpningar. Vår strategi utnyttjar kantmångfald av transit Internetleverantörer som finns i olika IXP:er för att utnyttja en tvärskiktssamordning mellan nätverks stacken vid åtkomst ISP-abonnenter och nätverksinfrastrukturen. Programvarudefinierat nätverk ger en användbar apparat för att styra IXP tyg och ger också vår multipate forwarding strategi för ett optimalt nätverksresursutnyttjande i den inter-domain konfigurationen. Bidrag från detta papper inkluderar härledning av abstrakta overlay graf från en IXP centrerad inter-domain konnektivitet modell. Denna graf används för att ge multipat vidarebefordring för ökad tillförlitlighet och genomströmning över abstrakt graf. Adaptive cross lay-samordning ökar effektiviteten i den föreslagna ramen och tillhandahåller en online-mekanism för att vidarebefordra trafiken över alla områden. Vi har observerat en så hög nivå som 54 procents ökning av genomströmningen med hjälp av det föreslagna systemet jämfört med en gemensam strategi för vägplanering och forwarding som för närvarande används på Internets ryggrad. INDEX TERMS Internetworking, Internet topologi, programvarudefinierat nätverk, tvärskiktsdesign, servicekvalitet.
Basit m.fl. I Ref föreslogs ett nytt tillvägagångssätt för att skapa en gynnsam samverkan mellan nätverk för framtida datacentriska tillämpningar.
28,164,006
SDN Orchestration for Next Generation Inter-Networking: A Multipath Forwarding Approach
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
82,234
Många sekventiella bearbetningsuppgifter kräver komplexa icke-linjära övergångsfunktioner från ett steg till ett annat. Men återkommande neurala nätverk med sådana "djupa" övergångsfunktioner är fortfarande svårt att träna, även när man använder Long Short-Term Memory nätverk. Vi introducerar en ny teoretisk analys av återkommande nätverk baserat på Geršgorins cirkelteorem som belyser flera modellering och optimeringsfrågor och förbättrar vår förståelse av LSTM-cellen. Baserat på denna analys föreslår vi Recurrent Highway Networks (RHN), som är långa inte bara i tid utan också i rymden, generalisera LSTMs till större steg-till-steg djup. Experiment visar att den föreslagna arkitekturen resulterar i komplexa men effektiva modeller, slår tidigare modeller för teckenförutsägelse på Hutter Prize dataset med mindre än hälften av parametrarna. * Dessa författare bidrog lika mycket.
REF har föreslagit Recurrent Highway Networks (RHN) som kombinerar LSTM:er och motorvägsnät [28] för att utbilda djupare arkitekturer.
1,101,453
Recurrent Highway Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,235
Abstrakt. Vi studerar problemet med att matcha sökande till jobb enligt ensidiga preferenser, det vill säga varje sökande rankar en icke-tom del av jobb enligt en ordning av preferenser, eventuellt med band. En matchande M sägs vara mer populär än T om de sökande som föredrar M att T överträffar dem som föredrar T till M. En matchning sägs vara populär om det inte finns någon matchning mer populär än det. Likvärdigt är en matchande M populär om.(M, T ) ≥.(T, M ) för alla matchningar T, där ska (X, Y ) är antalet sökande som föredrar X till Y. Tidigare studerade lösningskoncept baserade på popularitetskriteriet är antingen inte garanterade att existera för varje instans (t.ex. populära matchningar) eller är NP-hårda att beräkna (t.ex. minst impopulära matchningar). I detta dokument behandlas denna fråga genom att man överväger blandade matchningar. En blandad matchning är helt enkelt en sannolikhetsfördelning över matchningar i inmatningsdiagrammet. Den funktion som jämför två matchningar generaliseras på ett naturligt sätt till blandade matchningar genom att ta förväntningar. En blandad matchande P är populär om P, Q) ≥ Q, P ) för alla blandade matchningar Q. Vi visar att populära blandade matchningar alltid finns och vi designar polynom tid algoritmer för att hitta dem. Sedan studerar vi deras effektivitet och ger snäva gränser för priset på anarki och priset på stabilitet i det populära matchningsproblemet.
• Blandade matchningar: Mycket nyligen, Kavitha et al. REF ansåg problemet med att beräkna en sannolikhetsfördelning över matchningar, även kallad en blandad matchning, som är populärt.
11,384,753
Popular Mixed Matchings
{'venue': 'Theor. Comput. Sci.', 'journal': 'Theor. Comput. Sci.', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,236
Phishing är en form av identitetsstöld online som syftar till att stjäla känslig information som banklösenord online och kreditkortsinformation från användare. Fishing bedrägerier har fått omfattande pressbevakning eftersom sådana attacker har ökat i antal och sofistikering. Enligt en studie av Gartner har 57 miljoner amerikanska Internetanvändare identifierat mottagandet av e-post kopplad till nätfiske bedrägerier och cirka 2 miljoner av dem beräknas ha lurats att ge bort känslig information. Detta dokument presenterar en ny webbläsartillägg, AntiPhish, som syftar till att skydda användare mot spoofed webbplats-baserade phishing attacker. I detta syfte, AntiPhish spårar känslig information för en användare och genererar varningar när användaren försöker ge bort denna information till en webbplats som anses opålitlig.
AntiPhish REF är en webbläsartillägg som används för att skydda oerfarna användare mot spoofed webbplats-baserade phishing attacker.
5,882,446
Protecting Users against Phishing Attacks
{'venue': 'Comput. J.', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,237
I detta dokument presenteras ett nytt tillvägagångssätt för att använda klickdata för att lära sig rangordnade hämtningsfunktioner för sökresultat på webben. Vi observerar att användare som söker på webben ofta utför en sekvens, eller kedja, av frågor med ett liknande informationsbehov. Med hjälp av frågekedjor, genererar vi nya typer av preferens bedömningar från sökmotorloggar, vilket drar nytta av användarens intelligens i att omformulera frågor. För att validera vår metod utför vi en kontrollerad användarstudie som jämför genererade preferensbedömningar med explicita relevansbedömningar. Vi implementerade också en verklig sökmotor för att testa vår strategi, med hjälp av en modifierad rankning SVM för att lära sig en förbättrad rankningsfunktion från preferensdata. Våra resultat visar på betydande förbättringar i den rankning som sökmotorn ger. Den lärda rankingen överträffar både en statisk rankingfunktion och en tränad utan att överväga frågekedjor.
REF observera att användare ofta utför en sekvens av frågor baserat på ett liknande informationsbehov, och de hänvisar till dessa sekvenser av omformulerade frågor som frågekedjor.
3,262,314
Query Chains: Learning to Rank from Implicit Feedback
{'venue': 'Proceedings of the ACM Conference on Knowledge Discovery and Data Mining (KDD), ACM, 2005', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,238
I detta papper presenterar vi TroFi (Trope Finder), ett system för att automatiskt klassificera bokstavliga och icke-litterära användningar av verb genom nästan oövervakade ord-sense disambiguation och klusterteknik. TroFi använder ett tydligt sammanhang istället för selectional restriktion kränker eller vägar i semantiska hierarkier. Den använder också bokstavliga och icke-litterära fröset som förvärvats och rengjorts utan mänsklig övervakning för att sätta i gång inlärningen. Vi anpassar en word-sense disambiguation algoritm till vår uppgift och utöka den med flera fröuppsättningslärare, ett röstningsschema, och ytterligare funktioner som SuperTags och extrasentential sammanhang. Detaljerade experiment på hand annoterade data visar att vår förbättrade algoritm överträffar baslinjen med 24,4%. Med hjälp av TroFi-algoritmen bygger vi också TroFi-exemplebase, en extensible resurs av kommenterade bokstavliga / icke-litterära exempel som är fritt tillgänglig för NLP-forskare.
REF använder bokstavliga och icke-litterära fröset som förvärvats utan mänsklig övervakning för att utföra bootstrapping lärande.
11,890,804
A Clustering Approach For Nearly Unsupervised Recognition Of Nonliteral Language
{'venue': 'Conference Of The European Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,239
Domänanpassning är ett aktivt forskat problem inom Computer Vision. I detta arbete föreslår vi en strategi som utnyttjar oövervakade data för att föra källan och målfördelningen närmare varandra i ett inlärt gemensamt funktionsutrymme. Vi åstadkommer detta genom att framkalla ett symbiotiskt förhållande mellan det lärda inbäddandet och ett generativt kontradiktoriskt nätverk. Detta står i kontrast till metoder som använder den kontradiktoriska ramen för realistisk datagenerering och omskolning av djupa modeller med sådana data. Vi visar styrkan och generaliteten i vår strategi genom att utföra experiment på tre olika uppgifter med varierande svårighetsgrader: (1) Digit klassificering (MNIST, SVHN och USPS dataset) (2) Objektigenkänning med hjälp av BYRÅ dataset och (3) Domän anpassning från syntetiska till verkliga data. Vår metod uppnår state-of-the-art prestanda i de flesta experimentella miljöer och överlägset den enda GAN-baserade metod som har visat sig fungera bra mellan olika datauppsättningar såsom BYRÅ och DIGITS.
I REF införs ett tillvägagångssätt som utnyttjar omärkta data för att föra källan och måldistributionen närmare varandra genom att skapa ett symbiotiskt förhållande mellan den lärda inbäddningen och ett generativt kontradiktoriskt ramverk.
4,547,917
Generate to Adapt: Aligning Domains Using Generative Adversarial Networks
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
82,240
Trots framsteg i perceptuella uppgifter som bildklassificering, datorer fortfarande dåligt utför kognitiva uppgifter såsom bildbeskrivning och frågesvar. Kognition är kärnan i uppgifter som innebär att inte bara erkänna, men resonemang om vår visuella värld. Modeller som används för att hantera det rika innehållet i bilder för kognitiva uppgifter tränas dock fortfarande med hjälp av samma datauppsättningar som är utformade för perceptuella uppgifter. För att uppnå framgång vid kognitiva uppgifter måste modellerna förstå interaktionen och relationen mellan objekt i en bild. När man frågade: "Vilket fordon är den som rider?", datorer måste identifiera föremålen i en bild samt förhållanden ridning(man, vagn) och dra (häst, vagn) för att korrekt svara att "personen rider en häst dragen vagn." I detta dokument presenterar vi Visual Genome dataset för att möjliggöra modellering av sådana relationer. Vi samlar täta annoteringar av objekt, attribut och relationer inom varje bild för att lära sig dessa modeller. Specifikt innehåller vårt dataset över 108K bilder där varje bild har i genomsnitt 35 objekt, 26 attribut och 21 parvisa relationer mellan objekt. Vi kanonicalize objekt, attribut, relationer, och substantiv fraser i regionbeskrivningar och frågor svarar par till Word-Net synsets. Tillsammans representerar dessa kommentarer de tätaste Kommunicerade av och största datauppsättningen av bildbeskrivningar, objekt, attribut, relationer och frågesvar par.
Nyligen föreslogs Visual Genome REF dataset av Krishna et al., som innehåller täta annoteringar av objekt, attribut och relationer inom varje bild.
4,492,210
Visual Genome: Connecting Language and Vision Using Crowdsourced Dense Image Annotations
{'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']}
82,241
En betydande svaghet i de flesta nuvarande djupa konvolutionella neurala nätverk är behovet av att utbilda dem med hjälp av stora mängder manuellt märkta data. I detta arbete föreslår vi en oövervakad ram för att lära sig ett djupt konvolutionellt neuralt nätverk för enkelseende djup förutsägelse, utan att kräva ett förträningsstadium eller kommenterade mark sanningen djup. Vi uppnår detta genom att utbilda nätverket på ett sätt som liknar en autoencoder. Vid träningstiden överväger vi ett par bilder, källa och mål, med liten, känd kamerarörelse mellan de två såsom ett stereopar. Vi utbildar den konvolutionella kodaren för uppgiften att förutsäga djupkartan för källbilden. För att göra det genererar vi uttryckligen en omvänd warp av målbilden med hjälp av det förutsagda djupet och kända inter-view förskjutning, för att rekonstruera källbilden; det fotometriska felet i återuppbyggnaden är återuppbyggnadsförlusten för kodaren. Förvärvet av dessa träningsdata är betydligt enklare än för likvärdiga system, kräver ingen manuell annotering, eller kalibrering av djupsensor till kamera. Vi visar att vårt nätverk utbildat på mindre än hälften av KITTI-datasetet (utan ytterligare förstärkning) ger jämförbar prestanda jämfört med den senaste teknikens övervakade metoder för ensidig djupuppskattning.
Garg et al REF föreslog en oövervakad ram för ensidig djupuppskattning med en fotometrisk återuppbyggnadsförlust mellan stereopar.
299,085
Unsupervised CNN for Single View Depth Estimation: Geometry to the Rescue
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,242
Med den ökande förekomsten av lagerskala (WSC) och cloud computing blir det allt viktigare att förstå interaktionerna mellan serverapplikationer och den underliggande mikroarkitekturen för att extrahera maximal prestanda från serverhårdvaran. För att underlätta en sådan förståelse presenterar detta dokument en detaljerad mikroarchitectural analys av live datacenter jobb, mätt på mer än 20.000 Google-maskiner under en treårsperiod, och omfattar tusentals olika applikationer. Vi finner först att arbetsbelastningen på WSC är mycket varierande, vilket ökar behovet av arkitekturer som kan tolerera applikationsvariationer utan prestandaförlust. Vissa mönster dyker dock upp och erbjuder möjligheter till samoptimering av hårdvara och programvara. Till exempel identifierar vi gemensamma byggstenar i de lägre nivåerna av programvara stacken. Denna "datacenter skatt" kan omfatta nästan 30% av cyklerna över jobb som körs i flottan, vilket gör dess komponenter främsta kandidater för hårdvaruspecialisering i framtida serversystem-på-chips. Vi avslöjar också möjligheter till klassiska mikroarchitectural optimeringar för serverprocessorer, särskilt i cachehierarkin. Typiska arbetsbelastningar lägger stor stress på instruktionscacher och föredrar minne latens framför bandbredd. De förhalar också kärnor ofta, men beräknar kraftigt i sprickbildningar. Dessa observationer motiverar flera intressanta riktningar för framtida datorer i lagerskala.
Kanev m.fl. REF-profilerade och mätte mer än 20.000 Google-maskiner för att förstå effekten av prestandavariabilitet på vanliga arbetsbelastningar i moln.
9,137,870
Profiling a warehouse-scale computer
{'venue': "ISCA '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,243
Målet med detta arbete är att återställa mänskliga kroppskonfigurationer från statiska bilder. Utan att i förväg anta kunskaper om skala, pose eller utseende är detta problem ytterst utmanande och kräver användning av alla möjliga informationskällor. Vi utvecklar en ram som kan innehålla godtyckliga parvisa begränsningar mellan kroppsdelar, såsom skalkompatibilitet, relativ position, symmetri i kläder och jämna konturförbindelser mellan delar. Vi upptäcker kandidat kroppsdelar från bottom-up med parallellism, och använder olika pairwise konfiguration begränsningar för att montera ihop dem i kroppen konfigurationer. För att hitta den mest sannolika konfigurationen löser vi ett Integer Quadratic Programmering problem med en standardteknik med linjära approximationer. Ungefärlig IQP gör att vi kan införliva mycket mer information än den traditionella dynamiska programmeringen och förblir beräkningseffektiv. 15 handmärkta bilder används för att träna lågnivådeldetektorn och lära sig de pairwise begränsningarna. Vi visar testresultat på en mängd olika bilder.
Ren och al. presenterar en ram för att upptäcka och återvinna mänskliga kroppen konfiguration REF.
3,025,856
Recovering human body configurations using pairwise constraints between parts
{'venue': "Tenth IEEE International Conference on Computer Vision (ICCV'05) Volume 1", 'journal': "Tenth IEEE International Conference on Computer Vision (ICCV'05) Volume 1", 'mag_field_of_study': ['Computer Science']}
82,244
Vi presenterar en randomiserad distribuerad algoritm som i radionätverk med kollisionsdetektering sänder ett enda meddelande i O(D + log 6 n) rundor, med hög sannolikhet. Denna tids komplexitet är mest intressant på grund av dess optimala additiva beroende av nätverksdiameter D. Den förbättrar över de för närvarande mest kända O(D log n D + log 2 n) algoritmer, på grund av Czumaj och Rytter [FOCS 2003], och Kowalski och Pelc [PODC 2003]. Dessa algoritmer är konstruerade för modellen utan kollisionsdetektering och är optimala i den modellen. Som Peleg uttryckligen påpekade i sin 2007 års undersökning om radiosändningar i radionät var det dock fortfarande en öppen fråga om huruvida gränsen kan förbättras med kollisionsdetektering. Vi studerar också distribuerade algoritmer för att sända k-meddelanden från en enda källa till alla noder. Detta problem är en naturlig och viktig generalisering av problemet med ett enda meddelande, men är i själva verket betydligt mer utmanande och mindre förståeligt. Vi visar följande resultat: Om nätverkets topologi är känd för alla noder, då kan en k-meddelandesändning utföras i O(D+k log n+log 2 n) rundor, med hög sannolikhet. Om topologin inte är känd, men kollisionsdetektering är tillgänglig, kan en k-meddelandesändning utföras i O(D + k log n + log 6 n) rundor, med hög sannolikhet. Den första bundet är optimal och den andra är optimal modulo tillsatsen O(log 6 n) term.
rundor om topologin är känd i REF.
47,480,926
Randomized broadcast in radio networks with collision detection
{'venue': "PODC '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,245
Den stokastiska sammansättning optimering föreslås nyligen av Wang et al. [2014] minimerar målet med kompositionsförväntningsformen: Den sammanfattar många viktiga tillämpningar inom maskininlärning, statistik och ekonomi. I detta papper, vi anser det ändliga-summan scenario för komposition optimering: Vi föreslår två algoritmer för att lösa detta problem genom att kombinera den stokastiska komposition lutning nedstigning (SCGD) och den stokastiska variansen reducerad lutning (SVRG) teknik. En konstant linjär konvergenshastighet bevisas för starkt konvex optimering, vilket avsevärt förbättrar den sublinjära hastigheten O(K −0,8 ) av den mest kända algoritmen.
Dessutom Lian et al. REF tillämpade först den SVRG-baserade metoden för stokastisk kompositionsoptimering och erhöll en linjär konvergenshastighet.
2,034,056
Finite-sum Composition Optimization via Variance Reduced Gradient Descent
{'venue': 'AISTATS 2017', 'journal': 'arXiv: Optimization and Control', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,246
Tidsstabiliteten och den statiska kalibreringen och analysen av systemet Velodyne HDL-64E S2 scanning LiDAR diskuteras och analyseras. Den matematiska modellen för mätningar för HDL-64E S2-scannern uppdateras för att inkludera avvikelser mellan vinkelen kodare och skannerns rotationsaxel, som visar sig vara en marginellt betydande felkälla. Det rapporteras att horisontella och vertikala laserförskjutningar inte på ett tillförlitligt sätt kan erhållas med den aktuella kalibreringsmodellen på grund av deras höga korrelation med horisontella och vertikala förskjutningar. Genom att analysera observationer från två separata HDL-64E S2-skannrar fann man att tidsstabiliteten hos den horisontella vinkelförskjutningen är nära kvantiseringsnivån hos kodaren, men den vertikala vinkelförskjutningen, avståndsförskjutningen och distansskalan är något större än förväntat. Detta anses bero på långsiktiga variationer i skannerområdet, vars grundorsak är ännu oidentifierad. Icke desto mindre resulterade en tidsmässig genomsnittlig kalibreringsdatauppsättning för var och en av skannrarna i en 25-procentig förbättring av 3D-planarfelslutningen för kvarvarande RMSE jämfört med standardkalibreringsmodellen i fabriken.
En analys av kalibreringsvärdenas tidsstabilitet för Velodyne-systemet ges i REF.
7,791,234
Temporal stability of the Velodyne HDL-64E S2 scanner for high accuracy scanning applications. Remote Sens
{'venue': 'Remote Sensing', 'journal': 'Remote Sensing', 'mag_field_of_study': ['Computer Science', 'Geology']}
82,247
Vi undersöker idén att hitta semantiskt relaterade sökmotorfrågor baserat på deras tidsmässiga korrelation; med andra ord, vi drar slutsatsen att två frågor är relaterade om deras popularitet beter sig på samma sätt över tiden. För detta ändamål definierar vi först ett nytt mått på tidssambandet mellan två frågor baserat på korrelationskoefficienten för deras frekvensfunktioner. Vi utför sedan omfattande experiment med hjälp av vår åtgärd på två massiva frågeströmmar från MSN sökmotorn, avslöjar att denna teknik kan upptäcka ett brett spektrum av semantiskt liknande frågor. Slutligen utvecklar vi en metod för att effektivt hitta de högsta korrelerade frågorna för en given inmatningsfråga med mycket mindre utrymme och tid än den naiva metoden, vilket gör genomförandet i realtid möjligt.
Chien och Immorlica minerade förbättringar baserade på deras tidsmässiga korrelation i sessioner REF.
7,385,903
Semantic similarity between search engine queries using temporal correlation
{'venue': "WWW '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,248
End-to-end inlärning av återkommande neurala nätverk (RNN) är en attraktiv lösning för dialogsystem; men nuvarande tekniker är dataintensiva och kräver tusentals dialoger för att lära sig enkla beteenden. Vi introducerar Hybrid Code Networks (HCN) som kombinerar en RNN med domänspecifik kunskap kodad som programvaru- och systemactionmallar. Jämfört med befintliga end-toend-strategier minskar HCN avsevärt mängden utbildningsdata som krävs, samtidigt som den viktigaste fördelen med att sluta sig till en latent representation av dialogtillståndet bibehålls. Dessutom kan HCNs optimeras med övervakad inlärning, förstärka lärande, eller en blandning av båda. HCN:er uppnår toppmoderna prestanda på bAbI-dialogrutans datauppsättning (Bordes och Weston, 2016) och överträffar två kommersiellt utplacerade dialogsystem som är kundanpassade.
Williams, Asadi och Zweig Ref föreslog en modell som kallas Hybrid Code Networks (HCN), som är en blandning av övervakat lärande och förstärkt lärande.
13,214,003
Hybrid Code Networks: practical and efficient end-to-end dialog control with supervised and reinforcement learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,249
Abstract-Negative Bias Temperature Iostabile (NBTI) har potential att bli en av de viktigaste show-stopparna för kretssäkerhet i nanometerskala anordningar på grund av dess skadliga effekter på transistor tröskelspänning. Nedbrytningen av PMOS-enheter på grund av NBTI leder till minskad tidsprestanda i digitala kretsar. Vi har analyserat NBTI:s inverkan på SRAM-cellernas lässtabilitet. Mängden nedbrytning i Static Noise Margin (SNM), som är ett mått på lässtabiliteten i 6-T SRAM-cellen har uppskattats med hjälp av Reaction-Diffusion (R-D). Vi föreslår en enkel lösning för att återställa SNM i SRAM-cellen med hjälp av en dataflipping teknik och presentera resultaten simulerade på BPTM 70nm och 100nm teknik. Vi jämför och utvärderar också olika genomförandemetoder för den föreslagna tekniken.
NBTI-effekten på SRAM-celler har undersökts i REF, där det visas att avläsningsstabiliteten försämras på grund av NBTI, vilket står för den negativa påverkan på solcellssektorn.
1,019,494
Impact of NBTI on SRAM Read Stability and Design for Reliability
{'venue': "7th International Symposium on Quality Electronic Design (ISQED'06)", 'journal': "7th International Symposium on Quality Electronic Design (ISQED'06)", 'mag_field_of_study': ['Computer Science']}
82,250
Sammanfattning av denna webbsida: Säker och korrekt datafusion är en viktig fråga i trådlösa sensornätverk (WSN) och har forskats ingående i litteraturen. I detta dokument, genom att kombinera klusterteknik, rykte och förtroendesystem, och datafusionsalgoritmer, föreslår vi en ny klusterbaserad datafusionsmodell kallad Double Cluster Heads Model (DCHM) för säker och exakt datafusion i WSNs. Olika från traditionella klustermodeller i WSN:er väljs två klusterhuvuden efter klusterbildning för varje kluster baserat på rykte och förtroendesystem och de utför datafusion oberoende av varandra. Därefter skickas resultaten till basstationen där olikhetskoefficienten beräknas. Om olikhetskoefficienten för de två datafusionsresultaten överskrider den tröskel som förinställts av användarna, läggs klusterhuvudena till i svarta listan, och klusterhuvudena måste omväljas av sensornoder i ett kluster. Samtidigt, feedback skickas från basstationen till ryktet och förtroende systemet, som kan hjälpa oss att identifiera och ta bort de komprometterade sensorn noder i tid. Genom en serie omfattande simuleringar fann vi att DCHM presterade mycket bra i datafusionssäkerhet och noggrannhet.
I REF föreslog författarna Double Cluster Heads Model (DCHM) baserad på kluster, förtroendesystem och datafusion.
1,933,897
Double Cluster Heads Model for Secure and Accurate Data Fusion in Wireless Sensor Networks
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
82,251
Vi introducerar en ny språklig representationsmodell kallad BERT, som står för dubbelriktade Encoder Representationer från Transformers. Till skillnad från senaste språk representation modeller (Peters et al., 2018; Radford et al., 2018), BERT är utformad för att pre-training djupa dubbelriktade representationer genom att gemensamt konditionering på både vänster och höger sammanhang i alla lager. Som ett resultat, kan de förtränade BERT representationer finjusteras med bara ett ytterligare utdatalager för att skapa state-of-theart modeller för ett brett spektrum av uppgifter, såsom frågesvar och språk inference, utan betydande uppgiftsspecifika arkitekturändringar. BERT är konceptuellt enkelt och empiriskt kraftfullt. Det får nya state-of-the-art resultat på elva naturliga språk bearbetningsuppgifter, inklusive att driva GLUE-riktmärket till 80,4 % (7,6 % absolut förbättring), MultiNLI noggrannhet till 86,7 % (5,6 % absolut förbättring) och SQuAD v1.1 frågesvar Test F1 till 93,2 (1,5 absolut förbättring), presterande mänskliga prestanda med 2,0.
Nyligen använder BERT REF dubbelriktade transformatorkodare för att pre-trainera en stor corpus, och finjusterar den förtränade modellen som kräver nästan ingen specifik arkitektur för varje slutuppgift.
52,967,399
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,252
Djupa kvarvarande nätverk visade sig kunna skala upp till tusentals lager och har fortfarande bättre prestanda. Men varje bråkdel av en procent av förbättrad noggrannhet kostar nästan fördubbla antalet lager, och därför utbildning mycket djupa kvarvarande nätverk har ett problem med minskande funktion återanvändning, vilket gör dessa nätverk mycket långsam att träna. För att ta itu med dessa problem genomför vi i detta dokument en detaljerad experimentell studie av arkitekturen i ResNet block, som vi föreslår en ny arkitektur där vi minskar djup och öka bredden på kvarvarande nätverk. Vi kallar de resulterande nätverksstrukturer bred restnät (WRN) och visar att dessa är långt överlägsen deras allmänt använda tunna och mycket djupa motsvarigheter. Till exempel visar vi att även en enkel 16-lagers bred resterande nätverk överträffar i noggrannhet och effektivitet alla tidigare djupa resterande nätverk, inklusive tusen lager djupa nätverk, uppnå nya state-of-the-art resultat på CIFAR-10, CIFAR-100 och SVHN. Vår kod finns på https://github.com/szagoruyko/wide-residual-networks.
Zagoruyko och Komodakis REF undersökte minnesförbrukningen av ResNets och föreslog en restenhet som syftade till att minska djupet och öka bredden på ett djupt ResNet.
15,276,198
Wide Residual Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,253
Vi föreslår ett fullt fungerande identitetsbaserat krypteringssystem (IBE). Systemet har valt chiffertext säkerhet i slumpmässiga oraklet modell antar en variant av beräknings DiffieHellman problem. Vårt system är baserat på tvålinjära kartor mellan grupper. Den Weil parning på elliptiska kurvor är ett exempel på en sådan karta. Vi ger exakta definitioner för säkra identitetsbaserade krypteringssystem och ger flera tillämpningar för sådana system.
Boneh och Franklin uppfann det första funktionella identitetsbaserade krypteringssystemet (IBE) 2001 REF.
734,165
Identity-based encryption from the Weil pairing
{'venue': 'SIAM J. of Computing', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,254
I detta dokument koncentrerar vi oss på att lösa den lexikala tvetydighet som uppstår när ett givet ord har flera olika betydelser. Denna specifika uppgift kallas ofta för "ord sense disambiguation" (WSD). Uppgiften för WSD består i att tilldela rätt känsla till ord med hjälp av en elektronisk ordbok som källa till orddefinitioner. Vi presenterar två WSD-metoder baserade på två huvudsakliga metodologiska metoder inom detta forskningsområde: en kunskapsbaserad metod och en corpusbaserad metod. Vår hypotes är att word-sense disambiguation kräver flera kunskapskällor för att lösa den semantiska tvetydigheten i orden. Dessa källor kan vara av olika slag, t.ex. syntagmatiska, paradigmatiska eller statistiska uppgifter. Vår strategi kombinerar olika kunskapskällor, genom kombinationer av de två ovan nämnda WSD-metoderna. I huvudsak koncentreras dokumentet på hur man kan kombinera dessa metoder och informationskällor för att uppnå goda resultat i disambitionen. Slutligen presenteras i detta dokument en omfattande studie och ett experimentellt arbete om utvärdering av metoderna och deras kombinationer.
Metoden i REF kombinerar olika kunskapskällor genom kombinationer av två WSD-metoder.
1,186,274
Combining Knowledge- and Corpus-based Word-Sense-Disambiguation Methods
{'venue': 'Journal Of Artificial Intelligence Research, Volume 23, pages 299-330, 2005', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,255
Relationellt lärande handlar om att förutsäga okända värden av en relation, med tanke på en databas över enheter och observerade relationer mellan enheter. Ett exempel på relationellt lärande är förutsägelse om filmvärdering, där enheter kan inkludera användare, filmer, genrer och aktörer. Relations kodar användarnas betyg på filmer, filmers genrer och skådespelares roller i filmer. En vanlig förutsägelse teknik som ges en parvis relation, till exempel en #användare × #djur betyg matris, är låg-rank matris faktorisering. Inom områden med flera relationer, representerade som flera matriser, kan vi förbättra prediktiv noggrannhet genom att utnyttja information från en relation samtidigt förutsäga en annan. I detta syfte föreslår vi en kollektiv matris factorization modell: vi samtidigt faktor flera matriser, dela parametrar bland faktorer när en enhet deltar i flera relationer. Varje relation kan ha en annan värdetyp och felfördelning; så vi tillåter icke-linjära relationer mellan parametrarna och utgångar, med Bregman dividender för att mäta fel. Vi utökar standardalgoritmer för alternerande projektion till vår modell, och härleder en effektiv Newton-uppdatering för projektionen. Dessutom föreslår vi stokastiska optimeringsmetoder för att hantera stora, glesa matriser. Vår modell generaliserar flera befintliga matrisfaktoriseringsmetoder och ger därför nya storskaliga optimeringsalgoritmer för dessa problem. Vår modell kan hantera alla parvisa relationsschema och ett brett utbud av felmodeller. Vi visar dess effektivitet, liksom nyttan med att dela parametrar mellan förbindelserna.
Kollektiv matris factorization har utvecklats för att hantera parvisa relationer REF.
9,683,534
Relational learning via collective matrix factorization
{'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,256
Det är svårt att få svar på liknande frågor på Q&A-webbplatser online, eftersom olika användare kan formulera samma fråga på olika sätt med hjälp av olika ordförråd och struktur. I detta arbete föreslår vi en ny neural nätverk arkitektur för att utföra uppgiften att semantiskt likvärdig frågehämtning. Den föreslagna arkitekturen, som vi kallar BOW-CNN, kombinerar en påse-ofwords (BOW) representation med en distribuerad vektor representation skapad av ett konvolutionellt neuralt nätverk (CNN). Vi utför experiment med hjälp av data som samlats in från två Stack Exchange samhällen. Våra experimentella resultat visar att: (1) BOW-CNN är effektivare än BOW-baserade informationssökningsmetoder som TFIDF; (2) BOW-CNN är mer robust än det rena CNN för långa texter.
Dos Ref föreslår ett tillvägagångssätt som kombinerar ett konvolutionellt neuralt nätverk (CNN) och en påse ord representation för att jämföra frågor.
15,217,458
Learning Hybrid Representations to Retrieve Semantically Equivalent Questions
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,257
Detta dokument ger nya dualities vara-linjära nätkoder. Vi visar att de konstruerade multween entropy funktioner och nätkoder. Dessa ticast problem är linjärt lösbara om och endast om h är en dualitet resultat ger ett alternativt bevis på insufentropy funktion för slumpmässiga variabler som genereras av vecficiency linjära (och abeliska) nätverkskoder, och tor utrymmen. En motsvarande begränsande form av denna dualitet visar också nyttan av icke-Shannon ojämlikheter tillhandahålls. Slutligen, genom att lätta på kravet att dra åt yttre gränser på nätkodningskapacitet domänen h vara undergrupper av slumpmässiga variabler, vi obregioner. i teorem 3 en dualitet mellan polymatroider och den linjära programmeringen bunden. Dessa dualiteter löser I. INLEDNING det öppna problemet från [14], där ett specialfall av Theorem 1 visades för fyra variabler. Ett grundläggande problem i nätkodning är att un-Dessa dualitet resultat ger flera omedelbara corollarder stå kapacitet regionen och de klasser av koder som ies. Framför allt tillhandahåller vi ett alternativt bevis för att [4,15] uppnå kapacitet. I den enda session multicast scenario, för bristen på linjära (och abelianska) nätverk kodar problemet är väl förstådd. I synnerhet, Capac-för multi-source problem, och visa nyttighet regionen kännetecknas av max-flöde / min-cut gränser för icke-Shannon ojämlikheter för att strama yttre gränser på och linjära nätkoder är tillräckligt för att uppnå maximal nät kodning kapacitet regioner. genomströmning [1, 4]. Betydande praktiska och teoretiska komplikationer
Det visades i REF att fraktionerade linjära nätkoder över finita ringar (och moduler) är specialfall av koder som genereras av Abelianska grupper.
157,591
Dualities between Entropy Functions and Network Codes
{'venue': '2008 Fourth Workshop on Network Coding, Theory and Applications', 'journal': '2008 Fourth Workshop on Network Coding, Theory and Applications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,258
Vi försöker förbättra djupa neurala nätverk genom att generalisera de pooling operationer som spelar en central roll i nuvarande arkitekturer. Vi bedriver en noggrann undersökning av metoder för att möjliggöra sammanslagning för att lära och anpassa sig till komplexa och varierande mönster. De två primära riktningarna ligger i 1) lära sig en pooling funktion via (två strategier) kombinera av max och genomsnittliga pooling, och 2) lära sig en pooling funktion i form av en träd-strukturerad fusion av pooling filter som själva lärt sig. I våra experiment varje generaliserad pooling verksamhet vi utforska förbättrar prestanda när den används i stället för genomsnitt eller max pooling. Vi demonstrerar experimentellt att den föreslagna pooling verksamheten ger en boost i invariance egenskaper i förhållande till konventionell pooling och ställa state of the art på flera allmänt antagna referensdataset; de är också lätta att genomföra, och kan tillämpas inom olika djupa neurala nätverk arkitekturer. Dessa fördelar kommer endast med en lätt ökning av de beräknade omkostnaderna under utbildningen och en mycket blygsam ökning av antalet modellparametrar.
Lee och Al. REF generaliserade poolingfunktionen för att göra det möjligt att lära sig mer komplexa och rörliga mönster, inklusive linjära kombinationer och inlärningsbara poolningsåtgärder.
31,884
Generalizing Pooling Functions in Convolutional Neural Networks: Mixed, Gated, and Tree
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,259
Abstract-I detta dokument föreslår vi ett nytt positionsbaserat routing protokoll som är utformat för att förutse egenskaperna hos en urban VANET-miljö. Den föreslagna algoritmen använder förutsägelsen av nodens position och navigeringsinformation för att förbättra effektiviteten i routingprotokollet i ett fordonsnätverk. Dessutom använder vi informationen om länkskiktets kvalitet när det gäller SNIR- och MAC-ramfelfrekvens för att ytterligare förbättra effektiviteten i det föreslagna routingprotokollet. Detta bidrar särskilt till att minska end-to-end-fördröjningen. Slutligen används bärraketmekanismen som en reparationsstrategi i glesa nät. Det visas att användningen av denna teknik ökar paketleveransförhållandet, men ökar även end-to-end-fördröjningen och rekommenderas inte för QoS-begränsningstjänster. Våra resultat tyder på att jämfört med GPSR visar vårt förslag bättre resultat i stadsmiljön. Index Terms-vehicular ad-hoc nätverk, positionsbaserad routing, tvärskikt.
I REF föreslog författarna en positionsbaserad tvärskiktad ram som hette CLWPR för VANET.
11,425,029
CLWPR — A novel cross-layer optimized position based routing protocol for VANETs
{'venue': '2011 IEEE Vehicular Networking Conference (VNC)', 'journal': '2011 IEEE Vehicular Networking Conference (VNC)', 'mag_field_of_study': ['Computer Science']}
82,260
Trådlösa sensornätverk har uppmärksammats av en mängd olika forskare, på grund av den unika kombinationen av distribuerade, resurs- och databearbetningsbegränsningar. Hittills har dock bristen på verkliga distributioner av sensornätverk resulterat i ad hoc-antaganden om ett brett spektrum av frågor, inklusive topologikarakteristika och datadistribution. I takt med att spridningen av sensornät blir allt vanligare [1, 2] måste många av dessa antaganden ses över. Detta dokument behandlar den grundläggande frågan om spatio-temporär oegentlighet i sensornätverk Vi argumenterar för förekomsten av sådan oregelbunden spatio-temporal provtagning, och visar att det påverkar många prestandaproblem i sensornätverk. Till exempel, dataaggregation system ger felaktiga resultat, kompressionseffektivitet minskas dramatiskt, datalagring skews lagringsbelastning bland noder och ådrar sig betydligt större routing overhead. För att minska oegentlighetens effekter skisserar vi ett spektrum av lösningar. För dataaggregation och komprimering föreslår vi användning av rumslig interpolering av data (först föreslagna av Ganeriwal et al in [3] ) och tidssignalsegmentering följt av anpassning. För att minska kostnaden för datacentrerad lagring och routing föreslår vi användning av virtualisering och gränsdetektering.
En analys av dataoegentlighetens inverkan på spatiotemporalprovtagningen görs i REF.
8,788,720
Coping with irregular spatio-temporal sampling in sensor networks
{'venue': 'CCRV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,261
I detta dokument presenteras en formell modell för socio-affektivt beteende i en samtalsagent baserad på Action Tendency-teorin. Denna teori definierar känslor som tendenser att utföra en handling. Denna teori gör det möjligt för oss att genomföra en stark koppling mellan känslor och talakter under en agent-mänsklig interaktion. Vår modell presenterar en agentarkitektur med övertygelser, önskningar, ideal och kapaciteter. Den bygger på sex bedömningsvariabler för valet av olika emotionella strategier beroende på sammanhanget för dialogen. Den stöder också social reglering av känslor beroende på sociala regler. Vi implementerade denna modell i en agentarkitektur och ger ett exempel på dialog med en virtuell försäkringsexpert inom ramen för kundrelationshantering.
En virtuell försäkring konversationsagent beskrivs av REF, utnyttjar TEATIME, en arkitektur för agent-baserade DM.
4,309,668
TEATIME: A Formal Model of Action Tendencies in Conversational Agents
{'venue': 'ICAART', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,262
Abstract-I detta papper undersöker vi resursalgoritm design för multicarrier icke-ortogonal multipla access (MC-NOMA) system som använder en full-duplex (FD) basstation för att betjäna flera halv-duplex (HD) nedlänk och upplänk användare samtidigt. Den föreslagna algoritmen erhålls från lösningen av en icke-konvex optimering problem för maximering av den viktade summan systemgenomströmning. Vi tillämpar monoton optimering för att utveckla en optimal policy för fördelning av ledkraft och subcarrier. Den optimala resursfördelningspolicyn fungerar som ett riktmärke för systemets prestanda på grund av dess stora komplexitet i beräkningen. Dessutom föreslås ett icke-optimalt iterativt system som bygger på successiv konvex tillnärmning för att hitta en balans mellan beräkningskomplexitet och optimalitet. Våra simuleringsresultat visar att den föreslagna suboptimala algoritmen uppnår en nära optimal prestanda. Dessutom ger FD MC-NOMA-system som använder de föreslagna resurstilldelningsalgoritmerna en betydande systemgenomströmningsförbättring jämfört med konventionella system för flervägsåtkomst (MC-OMA) och andra baslinjesystem. Dessutom visar våra resultat att FD MC-NOMA-systemen möjliggör en rättvisare resursfördelning jämfört med traditionella HD MC-OMA-system.
I REF har den optimala resurstilldelningen för multicarrier downlink MISO NOMA-systemet undersökts.
10,304,267
Optimal Joint Power and Subcarrier Allocation for Full-Duplex Multicarrier Non-Orthogonal Multiple Access Systems
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,263
Vi anser att schemaläggningen av godtyckliga trådlösa länkar i den fysiska modellen av störningar minimerar tiden för att uppfylla alla förfrågningar. Vi studerar här det kombinerade problemet med schemaläggning och kraftstyrning, där vi söker både en tilldelning av effektinställningar och en partition av länkarna så att varje uppsättning uppfyller begränsningarna signal-till-interference-plus-buller (SINR). Vi ger en algoritm som uppnår ett approximationsförhållande av O(log n · log log ), där n är antalet länkar och är förhållandet mellan den längsta och den kortaste länklängden. Under det naturliga antagandet att längder representeras i binära, detta ger den första approximation förhållandet som är polylogaritmisk i storleken på inmatningen. Algoritmen har den önskvärda egenskapen att använda en oöverträffad makttilldelning, där den kraft som tilldelas en avsändare endast beror på länkens längd. Vi ger bevis för att detta beroende av är oundvikligt, vilket visar att varje rimligtvis ouppmärksam makttilldelning resulterar i en (logglogg )-uppskattning. Dessa resultat har också för det (viktade) kapacitetsproblemet att hitta en maximal (viktad) del av länkar som kan schemaläggas i en enda tidsrymd. Dessutom får vi förbättrad approximation för en dubbelriktad variant av schemaläggning problem, ge partiella svar på frågor om nyttan av grafer för modellering av fysisk störning, och generalisera inställningen från standard 2-dimensionella Euclidean plan till dubblering mätvärden. Slutligen undersöker vi nyttan av grafmodeller för att fånga trådlös störning.
En O(log log Δ · log n)-tillnärmningsalgoritm gavs i REF, som håller i någon dubblering metriska där α är strikt större än dubbleringskoefficienten (generalisera Euclidean setup).
6,049,168
Wireless scheduling with power control
{'venue': 'TALG', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,264
ABSTRACT Cloud computing håller på att bli ett alltmer beundrat paradigm som levererar högpresterande datorresurser över Internet för att lösa de storskaliga vetenskapliga problemen, men ändå har det olika utmaningar som måste hanteras för att utföra vetenskapliga arbetsflöden. Den befintliga forskningen fokuserade främst på att minimera efterbehandlingstiden (makespan) eller minimera kostnaderna samtidigt som kvaliteten på servicekraven uppfylldes. De flesta av dem anser dock inte att väsentliga egenskaper hos moln och stora frågor, såsom virtuella maskiner (VM) prestanda variation och förvärv fördröjning. I detta dokument föreslår vi en meta-heuristisk kostnadseffektiv genetisk algoritm som minimerar kostnaden för utförande av arbetsflödet samtidigt som deadline i cloud computing miljö. Vi utvecklar nya system för kodning, population initialisering, crossover, och mutationer operatörer av genetisk algoritm. Vårt förslag tar hänsyn till alla väsentliga egenskaper i molnet samt VM-prestandavariation och förvärvsfördröjning. Prestandautvärdering på några välkända vetenskapliga arbetsflöden, såsom Montage, LIGO, CyberShake och Epigenomics av olika storlek visar att vår föreslagna algoritm presterar bättre än de nuvarande toppmoderna algoritmerna. INDEX TERMS Cloud computing, vetenskapliga arbetsflöden, resursförsörjning, schemaläggning, kvalitet på tjänsten (QoS).
Meena m.fl. REF syftade till att hitta scheman för att minimera kostnaden för utförande samtidigt som deadline i molndatamiljö.
6,119,767
Cost Effective Genetic Algorithm for Workflow Scheduling in Cloud Under Deadline Constraint
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
82,265
Abstract-En ad hoc trådlöst nätverk är ett autonomt självorganiserande system av mobila noder anslutna via trådlösa länkar där noder inte i direkt räckvidd kommunicerar via mellanliggande noder. Moderna trådlösa enheter, såsom de som implementerar 802.11b-standarden, utnyttjar flera överföringshastigheter för att rymma ett brett spektrum av kanalförhållanden. Vi tillhandahåller en allmän teoretisk modell av den uppnåeliga genomströmningen i multirate ad hoc trådlösa nätverk. Denna modell är härledd från en detaljerad analys av de fysiska och medelstora åtkomstkontrolllagren. Den traditionella tekniken som används av de flesta befintliga ad hoc routing protokoll är att välja minsta humle vägar. Dessa vägar tenderar att innehålla långdistanslänkar som har låg effektiv genomströmning och minskad tillförlitlighet. Vi presenterar Medium Time Metric (MTM) som väljer optimala genomströmningsvägar och tenderar att undvika långa opålitliga länkar. Vår NS2-simuleringsmiljö består av ett högrörligt 802.11b-nätverk med många samtidiga TCP-anslutningar. Dessa simuleringar visar att vår MTM ger en genomsnittlig total nätgenomströmningsökning på 20% till 60%, beroende på nätdensitet, över det traditionella humlevärdet. Genom att kombinera MTM med OAR-protokollet (Oportunistic Auto Rate) erhålls en ökning med 100% till 200% över den traditionella rutten och val av priser. I detta arbete betonas vikten av kommunikation mellan olika lager i trådlösa nätverk. Våra resultat visar att länkhastighetsinformation från det medium åtkomstkontrollskiktet kan användas genom routingprotokoll för att avsevärt öka nätverksprestandan.
I REF föreslog författarna ett nytt nätmått, medium Time Metric (MTM), som härleds från en allmän teoretisk modell av det tillgängliga dataflödet i multi-rate ad hoc trådlösa nätverk.
341,268
High Throughput Route Selection in Multi-rate Ad Hoc Wireless Networks
{'venue': 'WONS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,266
Dokument-nivå uppfattningsklassificering syftar till att förutsäga användarens övergripande känslor i ett dokument om en produkt. De flesta befintliga metoder fokuserar dock endast på lokal textinformation och bortser från de globala användarnas preferenser och produktegenskaper. Även om vissa verk tar hänsyn till sådan information, lider de vanligtvis av hög modell komplexitet och endast beakta ordnivå preferenser snarare än semantiska nivåer. För att ta itu med denna fråga föreslår vi ett hierarkiskt neuralt nätverk för att införliva global användar- och produktinformation i känsloklassificeringen. Vår modell bygger först en hierarkisk LSTM-modell för att generera menings- och dokumentrepresentationer. Därefter beaktas användar- och produktinformation via uppmärksamhet över olika semantiska nivåer på grund av dess förmåga att fånga viktiga semantiska komponenter. De experimentella resultaten visar att vår modell uppnår betydande och konsekventa förbättringar jämfört med alla toppmoderna metoder. Källkoden för detta dokument kan erhållas från https://github. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
REF tillämpade användarpreferenser och produktegenskaper som uppmärksamhet på ord och meningar i recensioner för att lära sig den slutliga representationen för meningar och recensioner.
13,753,905
Neural Sentiment Classification with User and Product Attention
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,267
Offentligt. Sekretessbevarande data mining (PPDM) har därför blivit en viktig fråga under de senaste åren. Det mest allmänna sättet för PPDM är att sanera databasen för att dölja känslig information. I detta dokument föreslås en ny göm-missing-artificial verktyg (HMAU) algoritm för att dölja känsliga objekt genom transaktionsradering. Transaktionen med det maximala förhållandet av känslig till icke-känslig en är därför valt att helt tas bort. Tre biverkningar av att dölja fel, saknade objekt och konstgjorda objekt anses utvärdera om transaktionerna måste tas bort för att dölja känsliga objekt. Tre vikter tilldelas också som betydelse för tre faktorer, som kan ställas in enligt användarnas krav. Experiment utförs sedan för att visa den föreslagna algoritmens prestanda i exekveringstid, antal borttagna transaktioner och antal biverkningar.
En ny göm-missing-artificial verktyg (HMAU) algoritm har föreslagits av C. Lin et al. REF. att dölja känsliga objektsuppsättningar genom transaktionsindragning.
16,881,852
Reducing Side Effects of Hiding Sensitive Itemsets in Privacy Preserving Data Mining
{'venue': 'The Scientific World Journal', 'journal': 'The Scientific World Journal', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,268
Abstract-This paper presenterar algoritmer för visionsbaserad detektering och klassificering av fordon i monokulära bildsekvenser av trafikscener inspelade av en stationär kamera. Bearbetning sker på tre nivåer: råa bilder, regionnivå och fordonsnivå. Fordon är modellerade som rektangulära fläckar med visst dynamiskt beteende. Den föreslagna metoden bygger på upprättandet av överensstämmelser mellan regioner och fordon, eftersom fordonen rör sig genom bildsekvensen. Experimentella resultat från motorvägsscener tillhandahålls som visar metodens effektivitet. Vi beskriver också kortfattat ett interaktivt kamerakalibreringsverktyg som vi har utvecklat för att återställa kameraparametrarna med hjälp av funktioner i den bild som användaren valt.
Forskare definierade REF algoritmer för komplett system för visionsbaserad detektion och monokulära bildsekvenser klassificering av fordon i trafikscener.
16,106,977
Detection and Classification of Vehicles
{'venue': 'IEEE Transactions on Intelligent Transportation Systems', 'journal': None, 'mag_field_of_study': ['Geography', 'Engineering', 'Computer Science']}
82,269
Populariteten av sociala nätverk ökar kraftigt interaktionen mellan människor. Men en stor utmaning återstår - hur man kopplar samman människor som delar liknande intressen. I ett socialt nätverk ligger de flesta människor som delar liknande intressen med en användare i den långa svansen som står för 80 procent av den totala befolkningen. Att söka efter liknande användare genom följande länkar i sociala nätverk har två begränsningar: det är ineffektivt och ofullständigt. Därför är det önskvärt att utforma nya metoder för att hitta likasinnade människor. I detta dokument föreslår vi att man använder kollektiv visdom från folkmassan eller taggnätverken för att lösa problemet. I ett taggnätverk representerar varje nod en tagg som beskrivs med några ord, och vikten av en oriktad kant representerar samtidig förekomst av två taggar. Som sådan beskriver taggnätverket de semantiska relationerna mellan taggarna. För att ansluta till andra användare av liknande intressen via ett taggnätverk använder vi diffusionskärnor på taggnätverket för att mäta likheten mellan par av taggar. Likheten mellan människors intressen mäts på grundval av liknande taggar som de delar. För att rekommendera människor som är lika, hämtar vi topp k-personer som delar de mest liknande taggarna. Jämfört med två grundläggande metoder triadiska stängning och LSI, den föreslagna taggen nätverk metod uppnår 108% respektive 27% relativa förbättringar på BlogCatalog dataset, respektive.
REF studerar hur man kopplar samman människor med liknande intressen via ett taggnätverk.
9,598,274
Connecting users with similar interests via tag network inference
{'venue': "CIKM '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,270
Valet av ungefärlig bakre fördelning är ett av huvudproblemen i variationsläran. De flesta tillämpningar av variationsinferens använder enkla familjer av bakre approximationer för att möjliggöra en effektiv slutledning, med fokus på medelfält eller andra enkla strukturerade approximationer. Denna begränsning har en betydande inverkan på kvaliteten på de slutsatser som görs med hjälp av olika metoder. Vi inför ett nytt tillvägagångssätt för att specificera flexibla, godtyckligt komplexa och skalbara ungefärliga bakre fördelningar. Våra approximationer är distributioner konstruerade genom ett normaliserande flöde, där en enkel initial densitet omvandlas till en mer komplex en genom att tillämpa en sekvens av inverterbara omvandlingar tills en önskad nivå av komplexitet uppnås. Vi använder denna syn på normaliserade flöden för att utveckla kategorier av finita och oändligt små flöden och ger en enhetlig syn på tillvägagångssätt för att bygga rika bakåtriktade approximationer. Vi visar att de teoretiska fördelarna med att ha bakdelar som bättre matchar den verkliga bakre, i kombination med skalbarheten av avkortade variationsmetoder, ger en tydlig förbättring av prestanda och tillämplighet av variationsinferens.
Normalisering flöde REF använder en sekvens av inverterbar omvandling för att göra fördelningen av latenta koder godtyckligt flexibel.
12,554,042
Variational Inference with Normalizing Flows
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,271
Vi betraktar tidsgrafer med diskreta tidsetiketter och undersöker storleken och ungefärligheten av minsta tidsuppkopplade spännviddsdelgrafer. Vi presenterar en familj av minimalt sammankopplade tidsgrafer med n hörn och (n 2 ) kanter, vilket löser en öppen fråga om (Kempe, Kleinberg, Kumar, JCSS 64, 2002) om förekomsten av glesa tidsanslutning certifikat. Därefter anser vi att problemet med att beräkna en minimivikt delmängd av temporal kanter som bevarar anslutning av en given temporal graf antingen från en given vertex r (r-MTC problem) eller bland alla vertex par (MTC problem). Vi visar att approximabiliteten av r-MTC är nära relaterad till approximabiliteten av Directed Steiner Tree och att r-MTC kan lösas i polynom tid om den underliggande grafen har avgränsat trädbredd. Vi visar också att det bästa approximationsförhållandet för MTC är minst O(2 log 1−ε n ) och högst O(min {n 1+ε, ( och M ) 2/3+ε }), för varje konstant ε > 0, där M är antalet temporala kanter och till är den maximala graden av den underliggande grafen. Dessutom bevisar vi att den oviktade versionen av MTC är APX-hård och att MTC är effektivt lösbar i träd och 2-ungefärlig i cykler. ACM Subject Classification Diagram och nätverk är allmänt förekommande inom datavetenskap, eftersom de ger en naturlig och användbar abstraktion av många komplexa system (t.ex. transport- och kommunikationsnät) och processer (t.ex. informationsspridning, epidemier, routing) och även av samspelet mellan enskilda enheter eller partiklar (t.ex. sociala nätverk, kemiska och biologiska nätverk). Traditionella grafteoretiska modeller utgår från att nätverkets struktur och interaktionens styrka är tidsinvarianta. Men, som observerats i t.ex., [3, 19], i många tillämpningar av grafteoretiska modeller, tillgänglighet och vikter av kanterna är faktiskt tid-beroende. Till exempel kan man tänka sig att information sprids och distribueras i dynamiska nätverk (se t.ex. [6, 12, 19, 20] ) av mobila adhoc- och sensornät (se t.ex. [22]) av transportnät och ruttplanering (se t.ex. [3, 15] ), av epidemier, biologiska och ekologiska nätverk (se t.ex. [17, 19] ), och av influensssystem och koevolutionär opinionsbildning (se t.ex. [5, 9] ). Flera varianter av tidsberoende grafer har föreslagits som abstraktioner av sådana inställningar och beräkningsproblem (se t.ex. [6] och hänvisningarna i dessa). Oavsett den specifika varianten är de viktigaste forskningsfrågorna vanligtvis relaterade antingen till att optimera eller utnyttja tidsuppkoppling eller till att beräkna korta tidsrespekteringsvägar (se t.ex., [1, 2, © Kyriakos Axiotis och Dimitris Fotakis; licensierad under Creative Commons License CC-BY Conference titel som denna volym bygger på.
I ett nyligen utfört arbete REF, Axiotis och Fotakis lösa frågan negativt genom att ställa ut en familj av graf av densitet på (n 2 ) där ingen av kanterna kan tas bort.
7,927,320
On the Size and the Approximability of Minimum Temporally Connected Subgraphs
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,272
ABSTRACT I detta dokument undersöker vi säker samtidig trådlös information och kraftöverföring (SWIPT) i ett heterogent nät med två nivåer (HetNet), där de omgivande interferenssignalerna utnyttjas för både säker kommunikation och trådlös energiskörd. Vi antar att en makrocell basstation (MBS) och flera femtocell basstationer (FBS) samtidigt skickar information till sina makrocell användare (MUs) respektive femtocell användare, respektive. Under tiden överför FBS också energi till vissa energimottagare, som fungerar som potentiella tjuvlyssnare och kan avlyssna konfidentiella meddelanden till en MU via de tvärgående interferenslänkarna. Utnyttjar interferens i den ansedda HetNet, optimerar vi gemensamt strålformande vektorer och artificiellt buller av MBS och FBS för att maximera sekretessgraden för den tjuvlyssnade MU under kvalitet-av-service, energi skörd, och överföra kraft begränsningar vid relevanta mottagare/sändare. I synnerhet undersöker vi först det idealiska fallet med perfekt tjuvlyssnarens kanaltillståndsinformation (ECSI) och optimeringsproblemet visar sig vara nonconvex. Genom att använda verktygen för semidefinit relaxation (SDR) och endimensionell linjesökning, överför vi framgångsrikt det ursprungliga problemet till ett mer dragbart tvåstegsproblem för att få den optimala lösningen. Dessutom utvidgar vi vår studie till att omfatta det bristfälliga ECSI-fallet, där den värsta fallbaserade lösningen uppnås med hjälp av SDR och successiv konvex tillnärmning. Simuleringsresultat visar effektiviteten hos de föreslagna algoritmerna och ger också användbara insikter i utformningen av säker SWIPT i närvaro av störningar. INDEX TERMS Beamforming, heterogent nätverk, interferens, samtidig trådlös information och strömöverföring (SWIPT), semidefinite programmering (SDP).
Specifikt, sända strålformning (TBF) och artificiellt buller (AN) vektorer för makro basstationen (MBS) och femto basstationer (FBS) var gemensamt utformade för att maximera sekretessgraden av systemet, samtidigt som de ofullständiga CSIs av potentiella Eve med enda antenn och QoS begränsningar legitima användare i REF.
19,410,151
Secure Wireless Information and Power Transfer in Heterogeneous Networks
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
82,273
Eftersom sekventiell information spelar en viktig roll i att modellera användarbeteenden, har olika sekventiella rekommendationsmetoder föreslagits. Metoder baserade på Markov antagande är allmänt använda, men självständigt kombinera flera senaste komponenter. Nyligen, Recurrent Neural Networks (RNN) baserade metoder har framgångsrikt tillämpats i flera sekventiella modelleringsuppgifter. Men för verkliga tillämpningar har dessa metoder svårt att modellera den kontextuella informationen, som har visat sig vara mycket viktig för beteendemodellering. I detta dokument föreslår vi en ny modell som heter Context-Aware Recurrent Neural Networks (CA-RNN). I stället för att använda konstant indatamatris och övergångsmatris i konventionella RNN-modeller använder CA-RNN adaptiva kontextspecifika indatamatriser och adaptiva kontextspecifika övergångsmatriser. De adaptiva kontextspecifika inmatningsmatriserna fångar upp externa situationer där användarbeteenden inträffar, såsom tid, plats, väder och så vidare. Och de adaptiva kontextspecifika övergångsmatriserna fångar hur längder av tidsintervall mellan intilliggande beteenden i historiska sekvenser påverkar övergången av globala sekventiella funktioner. Experimentella resultat visar att den föreslagna CA-RNN-modellen ger betydande förbättringar i fråga om sekventiella rekommendationsmetoder och kontextmedvetna rekommendationsmetoder för två offentliga datauppsättningar, dvs. datauppsättningen Taobao och datauppsättningen Moviens-1M.
Ett annat arbete som föreslagits av Liu et al. REF antog adaptiva kontextspecifika övergångsmatriser för att fånga den externa situationen där användarbeteenden uppstod.
15,624,722
Context-Aware Sequential Recommendation
{'venue': '2016 IEEE 16th International Conference on Data Mining (ICDM)', 'journal': '2016 IEEE 16th International Conference on Data Mining (ICDM)', 'mag_field_of_study': ['Computer Science']}
82,274
Kvaliteten på en Neural maskin översättningssystem beror i hög grad på tillgängligheten av betydande parallell corpora. För låg-resurs språkpar är detta inte fallet, vilket resulterar i dålig översättningskvalitet. Inspirerad av arbete i datorseende föreslår vi en ny dataförstärkningsmetod som riktar sig till lågfrekventa ord genom att generera nya meningspar som innehåller sällsynta ord i nya, syntetiskt skapade sammanhang. Experimentella resultat på simulerade lågresursinställningar visar att vår metod förbättrar översättningskvaliteten med upp till 2,9 BLEU-poäng över baslinjen och upp till 3,2 BLEU över back-translation.
En dataförstärkningsmetod för NMT med låga resurser fokuserar på att generera nya meningspar för lågfrekvensord REF.
3,291,104
Data Augmentation for Low-Resource Neural Machine Translation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,275
Klustrade sensornätverk har nyligen visat sig öka systemgenomströmningen, minska systemfördröjningen och spara energi samtidigt som dataaggregation utförs. Medan de med roterande klusterhuvuden, såsom LEACH (lågenergiadaptiv klusterhierarki), också har fördelar i fråga om säkerhet, gör den dynamiska karaktären av deras kommunikation de flesta befintliga säkerhetslösningar otillräckliga för dem. I detta dokument undersöker vi problemet med att lägga till säkerhet till hierarkiska (klusterbaserade) sensornätverk där kluster bildas dynamiskt och periodvis, såsom LEACH. I detta syfte visar vi hur slumpmässig förhandsdistribution, som är allmänt studerad i samband med platta nätverk, och mTESLA, ett byggblock från SINS, kan både användas för att säkra kommunikation i denna typ av nätverk. Vi presenterar vår lösning och ger en detaljerad analys av hur olika värden för de olika parametrarna i ett sådant system påverkar ett hierarkiskt nätverk när det gäller säkerhet och energieffektivitet. Såvitt vi vet är vår första som undersöker säkerheten i hierarkiska WSN med dynamisk klusterbildning. Var och en av dem ska uppfylla kraven i bilaga I till förordning (EU) nr 952/2013.
Oliveira m.fl. föreslagna Sec-LEACH en effektiv lösning för att säkra kommunikation använder slumpmässig-nyckel predistribution och μTESLA för säker hierarkisk WSN med dynamisk klusterbildning REF.
12,409,055
SecLEACH—On the security of clustered sensor networks
{'venue': 'Signal Process.', 'journal': 'Signal Process.', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,276
Abstract-Under de senaste åren, har BitTorrent utvecklats som en mycket skalbar peer-to-peer-fil distributionsmekanism. Medan tidiga mätningar och analytiska studier har verifierat BitTorrents prestanda, har de också väckt frågor om olika mätvärden (uppladdningsanvändning, rättvisa, etc.).), särskilt i andra miljöer än de som mäts. I den här artikeln presenterar vi en simuleringsbaserad studie av BitTorrent. Vårt mål är att dekonstruera systemet och utvärdera effekterna av dess kärnmekanismer, både individuellt och i kombination, på systemets övergripande prestanda under en mängd olika arbetsbelastningar. Vår utvärdering fokuserar på flera viktiga mätvärden, inklusive peer link-användning, filnedladdningstid och rättvisa bland peers när det gäller volym av innehåll som serveras. Våra resultat bekräftar att BitTorrent utför nästan optimalt när det gäller upplänk bandbreddsanvändning, och nedladdningstid utom under vissa extrema förhållanden. Vi visar också att personer med låg bandbredd kan ladda ner mer än de laddar upp till nätverket när personer med hög bandbredd är närvarande. Vi anser att den prisbaserade tit-for-tat-politiken inte är effektiv när det gäller att förebygga orättvisa. Vi visar hur enkla förändringar av spåraren och en striktare, blockbaserad tit-for-tat-politik avsevärt förbättrar rättvisan.
Bharambe m.fl. REF använder en diskret händelsesimulator för att utvärdera effekten av BitTorrents kärnmekanismer och observera att den hastighetsbaserade tit-for-tat-strategin är ineffektiv när det gäller att förebygga orättvisor i kamratbidrag.
6,694,042
Analyzing and Improving a BitTorrent Networks Performance Mechanisms
{'venue': 'Proceedings IEEE INFOCOM 2006. 25TH IEEE International Conference on Computer Communications', 'journal': 'Proceedings IEEE INFOCOM 2006. 25TH IEEE International Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']}
82,277
Merparten av arbetet i analysen av kryptografiska system är koncentrerat till abstrakta kontradiktoriska modeller som inte fångar sidokanalsattacker. Sådana attacker utnyttjar olika former av oavsiktliga informationsläckage, vilket är en naturlig del av nästan alla fysiska genomföranden. Inspirerad av de senaste sidokanalattackerna, särskilt "kallstartsattackerna" från Halderman et al. (USENIX Security '08), Akavia, Goldwasser och Vaikuntanathan (TCC '09) formaliserade en realistisk ram för att modellera säkerheten för krypteringssystem mot en bred klass av sidokanal attacker där adversarially valda funktioner av den hemliga nyckeln läcker. När det gäller kryptering med öppen nyckel, Akavia et al. visade att Regevs latticebaserade system (STOC '05) är motståndskraftigt mot eventuella läckage av L/polylog(L) bitar, där L är längden på den hemliga nyckeln. I detta dokument ser vi över det ovan nämnda ramverket och våra viktigaste resultat är följande: • Vi presenterar en allmän konstruktion av ett offentligt krypteringssystem som är motståndskraftigt mot nyckelläckage från alla hashsäkra system. Konstruktionen är inte beroende av ytterligare beräkningsantaganden, och det resulterande systemet är lika effektivt som det underliggande hashproof-systemet. Befintliga konstruktioner av hashsäkra system innebär att vår konstruktion kan baseras på en mängd olika tal-teoretiska antaganden, inklusive den beslutande Diffie-Hellman antagande (och dess gradvis svagare d-Linear varianter), quadratic residuosity antagande, och Pailliers sammansatta residuosity antagande. • Vi konstruerar ett nytt hashproof system baserat på beslut Diffie-Hellman antagande (och dess d-Linear varianter), och visar att det resulterande systemet är motståndskraftig mot eventuella läckage av L(1 − o(1)) bitar. Dessutom bevisar vi att Boneh et al. (CRYPTO '08), konstruerad för att vara ett "cirkulärt säkert" krypteringssystem, passar vårt allmänna tillvägagångssätt och är också motståndskraftig mot eventuella läckage av L(1 - o(1)) bitar. • Vi utsträcker ramen för nyckelläckage till att fastställa valda-chiffertext attacker. På den teoretiska sidan, vi bevisar att Naor-Yung paradigm är tillämplig i denna miljö också, och få som en corollary krypteringssystem som är CCA2-säkra med eventuella läckage av L(1 - o(1)) bitar. På den praktiska sidan bevisar vi att varianter av CramerShoup cryptosystem (längs linjen av vår generiska konstruktion) är CCA1-säkra med eventuella läckage av L/4 bitar, och CCA2-säkra med eventuella läckage av L/6 bitar. En preliminär version av detta verk publicerades i Forwards in Cryptology -CRYPTO '09, sidorna 18-35, 2009.
Är du säker på att du är säker på att du är säker på det? Naor och Segev REF konstruerar symmetriska/offentliga krypteringssystem som är säkra i denna modell.
2,826,332
Public-key cryptosystems resilient to key leakage
{'venue': 'In Advances in Cryptology — CRYPTO 2009, volume 5677 of Springer LNCS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,278
Abstract-Medan övergången till virtuell maskin (VM) gör det möjligt för datacenter att balansera arbetsbelastningar över fysiska maskiner, är löftet om en maximalt utnyttjad infrastruktur ännu inte realiseras. En del av utmaningen beror på de inneboende beroendena mellan virtuella datorer som består av en multi-tier-applikation, som introducerar komplexa belastningsinteraktioner mellan de underliggande fysiska servrarna. Till exempel, helt enkelt flytta en överbelastad VM till en (slumpvis) underladdad fysisk maskin kan oavsiktligt överbelasta nätverket. Vi introducerar AppAware-ett nytt, beräkningseffektivt system för att införliva (1) beroenden mellan VM och (2) den underliggande nätverkstopologin i beslut om VM-migrering. Med hjälp av simuleringar visar vi att vår föreslagna metod minskar nätverkstrafiken med upp till 81% jämfört med en välkänd alternativ VM-migreringsmetod som inte är applikationsmedveten.
Arbetet i REF tar hänsyn till det inneboende beroendet mellan virtuella maskiner som består av en multinivåapplikation och inför ett effektivt system för att införliva beroenden mellan VM och den underliggande nätverkstopologin i besluten om VM-migrering.
17,960,313
Application-aware virtual machine migration in data centers
{'venue': '2011 Proceedings IEEE INFOCOM', 'journal': '2011 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']}
82,279
Abstract-Denna studie syftar till att utveckla en automatisk klassificering för riskbedömning hos patienter med kronisk hjärtsvikt (CHF). Den föreslagna klassificeringen separerar patienter med lägre risk från patienter med högre risk, med hjälp av standardmått för långsiktig hjärtfrekvensvariabilitet (HRV). Patienterna betecknas som lägre eller högre risk enligt klassificeringen i New York Heart Association (NYHA). En retrospektiv analys av två offentliga Holter-databaser utfördes med analys av data från 12 patienter med lätt hjärtsvikt (NYHA I och II), märkt som lägre risk, och 32 patienter med svår hjärtsvikt (NYHA III och IV), märkta som högre risk. Endast patienter med en bråkdel av de totala hjärtslagintervallen (RR) klassificerade som normala (NN) intervall (NN/RR) högre än 80 % valdes ut för att ha en tillfredsställande signalkvalitet. Klassificerings- och regressionsträd (CART) användes för att utveckla klassificeringarna. Totalt 30 patienter med högre risk och 11 patienter med lägre risk inkluderades i analysen. De föreslagna klassificeringsträden uppnådde en känslighets- och specificitetsgrad på 93,3 % respektive 63,6 % när det gällde att identifiera patienter med högre risk. Slutligen är CART:s regler begripliga och överensstämmer med det samförstånd som tidigare studier visat att deprimerad HRV är ett användbart verktyg för riskbedömning hos patienter som lider av kronisk hjärtsvikt. Index Terms-Kongestiv hjärtsvikt (CHF), data mining, beslut träd, pulsvariabilitet (HRV).
Melillo et al REF utvecklade en modell för riskbedömning hos patienter med kronisk hjärtsvikt.
15,326,951
Classification Tree for Risk Assessment in Patients Suffering From Congestive Heart Failure via Long-Term Heart Rate Variability
{'venue': 'IEEE Journal of Biomedical and Health Informatics', 'journal': 'IEEE Journal of Biomedical and Health Informatics', 'mag_field_of_study': ['Medicine', 'Computer Science']}
82,280
Neural Machine Translation (NMT) har nyligen lockat en hel del uppmärksamhet på grund av den mycket höga prestanda som uppnås genom djupa neurala nätverk inom andra områden. En inneboende svaghet i befintliga NMT-system är deras oförmåga att korrekt översätta sällsynta ord: end-to-end NMTs tenderar att ha relativt små ordförråd med en enda "okänd-word" symbol som representerar varje möjlig out-of-vokabulary (OOV) ord. I detta dokument föreslår och inför vi en enkel teknik för att ta itu med detta problem. Vi utbildar ett NMT-system på data som förstärks av utdata från en ordjusteringsalgoritm, så att NMT-systemet kan mata ut, för varje OOV-ord i målmeningen, dess motsvarande ord i källmeningen. Denna information används senare i en efterbehandling steg som översätter varje OOV ord med hjälp av en ordbok. Våra experiment på WMT'14 Engelska till franska översättning uppgift visar att denna enkla metod ger en betydande förbättring jämfört med en likvärdig NMT system som inte använder denna teknik. Resultatet av vårt system uppnår en BLEU-poäng på 36,9, vilket förbättrar den tidigare bästa end-to-end NMT med 2,1 poäng. Vår modell matchar prestandan hos det toppmoderna systemet samtidigt som den använder tre gånger mindre data.
I synnerhet, tillämpa på maskinöversättning uppgift, REF lär sig att peka några ord i källmening och kopiera den till målet mening, på samma sätt som vår metod.
1,245,593
Addressing the Rare Word Problem in Neural Machine Translation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,281
Vi föreslår Effektiv Neural Architecture Search (ENAS), ett snabbt och billigt tillvägagångssätt för automatisk modelldesign. I ENAS upptäcker en controller neurala nätverksarkitekturer genom att söka efter en optimal subgraf inom en stor beräkningskurva. Styrenheten tränas med policygradient för att välja en subgraf som maximerar den förväntade belöningen på en valideringsuppsättning. Under tiden tränas den modell som motsvarar den valda subgrafen för att minimera en kanonisk korsentropiförlust. Delningsparametrar bland barnmodeller gör det möjligt för ENAS att leverera starka empiriska prestationer, samtidigt som man använder mycket färre GPU-timmar än befintliga automatiska modelldesignmetoder, och särskilt 1000x billigare än standard Neural Architecture Search. På Penn Treebanks dataset upptäcker ENAS en ny arkitektur som uppnår en test perplexitet på 55.8, vilket skapar en ny toppmodern teknik bland alla metoder utan behandling efter utbildningen. På CIFAR-10-datasetet hittar ENAS en ny arkitektur som uppnår 2,89% testfel, vilket är på samma nivå som NASNets testfel på 2,65% (Zoph et al., 2018).
Den första är effektiv neural arkitektur sökning via parameterdelning (ENAS) REF.
3,638,969
Efficient Neural Architecture Search via Parameter Sharing
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,282
Preference framkallande är ett utmanande grundläggande problem när man utformar recommender system. I det nuvarande arbetet föreslår vi en innehållsbaserad teknik för att automatiskt generera en semantisk representation av användarens musikaliska preferenser direkt från ljud. Med utgångspunkt från en explicit uppsättning musikspår som användaren tillhandahåller som bevis på hans/hennes preferenser kan vi sluta oss till semantiska deskriptorer på hög nivå för varje spår som får en användarmodell. För att bevisa fördelarna med vårt förslag presenterar vi två tillämpningar av vår teknik. I den första överväger vi tre tillvägagångssätt till musikrekommendation, två av dem baserade på ett semantiskt musikliknande mått, och ett baserat på en semantisk probabilistisk modell. I den andra applikationen tar vi upp visualiseringen av användarens musikaliska preferenser genom att skapa en humanoid tecknad karaktär - Musical Avatar - automatiskt härledd från den semantiska representationen. Vi genomförde en preliminär utvärdering av den föreslagna tekniken i samband med dessa ansökningar med 12 ämnen. Resultaten är lovande: rekommendationerna utvärderades positivt och nära dem som kommer från toppmoderna metadatabaserade system, och försökspersonerna bedömde de genererade visualiseringarna för att fånga deras kärnpreferenser. Slutligen lyfter vi fram fördelarna med den föreslagna semantiska användarmodellen för att förbättra användargränssnitten för informationsfiltreringssystem.
REF föreslår en innehållsbaserad modell som använder lågnivåfunktioner, såsom stämningar och rytmer, för att representera användarens preferens av låtarna.
1,936,504
Semantic audio content-based music recommendation and visualization based on user preference examples
{'venue': 'Inf. Process. Manag.', 'journal': 'Inf. Process. Manag.', 'mag_field_of_study': ['Computer Science']}
82,283
Abstrakt-Många routing protokoll har föreslagits för trådlösa nätverk. Ett vanligt antagande som görs av majoriteten av dessa protokoll är att varje trådlös nod kommer att följa det föreskrivna protokollet utan någon avvikelse. Detta kanske inte är sant i praktiken eftersom trådlösa noder kan ägas av användare som agerar i eget intresse. Vi måste sedan utforma routing protokoll som fortfarande fungerar korrekt även för nätverk som består av själviska noder. I detta dokument föreslår vi ett enhetligt routingprotokoll för att ta itu med denna fråga under antagandet att alla nätverksnoder är rationella. Här är en nod rationell om den alltid väljer en strategi som maximerar dess nytta. Vi antar att varje nod har en privat känd kostnad för att förmedla en enhet data för andra noder. I vårt protokoll, varje trådlös nod måste deklarera en kostnad för vidarebefordra en enhet av data. När en nod vill skicka data till åtkomstpunkten beräknar den först den billigaste sökvägen till åtkomstpunkten och beräknar sedan en betalning till varje nod på denna sökväg. Vi presenterar en prissättningsmekanism så att vinsten för varje relä nod maximeras när den deklarerar sin verkliga kostnad. Vi ger också en tid optimal metod för att beräkna betalningen på ett centraliserat sätt. Därefter diskuterar vi i detalj hur routingprotokollet ska genomföras på det distribuerade sättet. Vi genomför omfattande simuleringar för att studera förhållandet mellan den totala betalningen och den totala kostnaden för alla relänoder. Vi anser att detta förhållande är litet i praktiken. Vårt protokoll fungerar när de trådlösa noderna inte kommer att kolludera och vi visar att ingen sanningsenlig mekanism kan undvika samverkan av något par av två noder. Vi ger också en sanningsenlig mekanism när en nod bara kolliderar med sina grannar.
Wang och Li Ref har föreslagit en prissättningsmekanism för att stimulera samarbete mellan alla rationella trådlösa enheter genom att betala dem för överföring av data till och från åtkomstpunkten.
448,473
Low-cost routing in selfish and rational wireless ad hoc networks
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
82,284
Abstract-Wireless Multimedia Sensor Networks (WMSNs) är distribuerade system av trådlöst nätverkade enheter som tillåter hämta video-och ljudströmmar, stillbilder och skalära sensordata. WMSN kommer att vara en viktig komponent i uppdragskritiska nätverk för att skydda driften av strategisk nationell infrastruktur, ge stöd för att motverka nödsituationer och hot och förbättra infrastrukturen för taktiska militära operationer. För att möjliggöra dessa tillämpningar, WMSNs kräver sensornätverk paradigm att omprövas med tanke på behovet av mekanismer för att leverera multimediainnehåll med en fördefinierad nivå av tjänstekvalitet (QoS). I detta dokument beskrivs en ny gränsöverskridande kommunikationsarkitektur baserad på tidshoppande impulsradio ultrabredbandsteknik, vars mål är att på ett tillförlitligt och flexibelt sätt leverera QoS till heterogena applikationer i WMSNs, genom att utnyttja och kontrollera interaktioner mellan olika lager av protokoll stacken enligt tillämpningskraven. Simuleringar visar att det föreslagna systemet uppnår WMSN:s prestandamål utan att offra moduläriteten i den övergripande konstruktionen. Index Terms-Wireless multimedia sensor nätverk, crosslayer optimering, kvalitet på tjänsten, ultra brett band.
Tommaso Melodia et al REF har föreslagit en ny tvärskiktskommunikationsarkitektur baserad på tidshoppande impulsradio ultrabredbandsteknik, vars mål är att på ett tillförlitligt och flexibelt sätt leverera QoS till heterogena applikationer i WMSNs, genom att utnyttja och kontrollera interaktioner mellan olika lager av protokoll stacken enligt tillämpningskraven.
5,734,203
Cross-layer QoS-aware communication for ultra wide band wireless multimedia sensor networks
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
82,285
I detta dokument studerar vi diffusionssystem för dynamisk lastbalansering på meddelande som passerar flerprocessornätverk. Ett av de viktigaste resultaten gäller de förhållanden under vilka dessa dynamiska system konvergerar och deras konvergensnivåer för godtyckliga topologier. Dessa resultat använder sig av iterationsmatrisernas eigenstruktur som uppstår vid dynamisk belastningsbalansering. Vi analyserar helt hypercube-nätverket genom att explicit beräkna eigenstructure av dess nod adjacency-matris. Med hjälp av en realistisk modell av interprocessorkommunikation visar vi att en diffusionsmetod för lastbalansering på en hypercube multiprocessor är underlägsen en annan metod som vi kallar dimensionsutbytesmetoden. För en d-dimensionell hyperkub beräknar vi konvergenshastigheten till en enhetlig arbetsfördelning och visar att efter d + 1 iterationer av diffusionstyp kan vi garantera att arbetsfördelningen ligger ungefär inom e-* av den enhetliga fördelningen oberoende av hyperkubdimensionen d. Både statiska och dynamiska slumpmässiga modeller för arbetsfördelning studeras. O 1989 Academic Press, Inc.
År 1989 studerade Cybenko Ref spridningssystemen för dynamisk lastbalansering på ett meddelande som passerar flerprocessornätverk.
1,680,222
Dynamic Load Balancing for Distributed Memory Multiprocessors *
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,286
Abstrakt. Sambandet mellan automatik och logik har undersökts sedan 1960-talet. I synnerhet visades det hur man, med tanke på en automaton, kan avgöra om den är definierbar i första ordningens logik med märkningstester och ordningsförhållandet, och för första ordningens logik med det efterföljande förhållandet. På senare år har intresset för språk varit stort för ett oändligt alfabet. Kaminski och Francez introducerade en klass av automata som kallas finita minnesautomata (FMA), som representerar en naturlig analog av ändliga tillstånd maskiner. En FMA kan förutom sitt kontrolltillstånd använda ett (begränsat) antal register för att lagra och jämföra värden från inmatningsordet. Klassen av dataspråk som erkänns av FMA är ojämförlig med den klass av dataspråk som definieras av första ordningens formler med orderrelationen och en ytterligare binär relation för datajämställdhet. Vi jämför först den expressiva kraften hos flera varianter av FMA med flera dataordlogik. Sedan tänker vi på det motsvarande beslutsproblemet: med tanke på en automaton A och en logik, kan det språk som erkänns av A definieras i logiken? Vi visar att det är obeslutbart för flera varianter av FMA, och sedan undersöka frågan i detalj för deterministiska FMA. Vi visar att problemet är deciderbart för första ordningens logik med lokala datajämförelser - en analog av första ordningens logik med efterträdare. Vi visar också exempel på problemet för rikare klasser av första ordningens logik som är avgörande. Logik är naturliga sätt att specificera beslutsproblem på diskreta strukturer, medan automata representerar naturliga bearbetningsmodeller. På finita ord från ett fast (finita) alfabet visade Büchi [1] att monadisk andraordningslogik har samma uttrycksfullhet som deterministiska finita stat automata, medan resultaten av Schützenberger och McNaughton och Papert visade att första ordningens logik med beteckningen och ordningen predikat har samma uttrycksfullhet som motfri automata [2, 3]. Det senare teorem ger en decidable karakterisering av vilka automata motsvarar första ordningen meningar. Bestämbara karakteriseringar har också getts för första ordningens logik med etiketten och efterföljande predikat [4]. Dessa karakteriseringar har utvidgats till många andra sammanhang; till exempel finns det karakteriseringar av trädautomaten som motsvarar meningar i logik på träd [5]. Automata bearbetar finita ord över oändliga alfabet (så kallade dataord) attraherar stort intresse från databasen och verifieringsgrupper, eftersom de ofta kan användas som lågnivåformalismer för att representera och resonera om dataströmmar, programspår och serialiseringar av strukturerade dokument. Dessutom egenskaper som anges med hjälp av hög nivå formalismer (för
I REF visar de att definierbarheten i första ordningens logik är obeslutbar om inmatningen är en icke-deterministisk registerautomaton.
1,692,093
Automata vs. logics on data words
{'venue': 'In CSL, volume 6247 of LNCS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,287
I detta dokument är ett distribuerat konvext optimeringsramverk utvecklat för energihandel mellan ökända mikrogrider. Mer specifikt består problemet av flera ökända mikrogrider som utbyter energiflöden med hjälp av en godtycklig topologi. På grund av skalbarhetsproblem, och för att skydda lokal information om kostnadsfunktioner, föreslås en subgradientbaserad kostnadsminimering algoritm som konvergerar till den optimala lösningen i ett praktiskt antal iterationer och med en begränsad kommunikation overhead. Dessutom möjliggör detta tillvägagångssätt en mycket intuitiv ekonomisk tolkning som förklarar algoritmer iterationer i termer av "försörjnings-efterfrågan modell" och "marknadsclearing". Numeriska resultat ges i termer av algoritmens konvergensgrad och uppnådda kostnader för olika nättopologier.
Slutligen konvergerar priserna på MG1 i detta dokument och REF till samma värde.
2,996,824
Distributed Energy Trading: The Multiple-Microgrid Case
{'venue': 'IEEE Transactions on Industrial Electronics, vol. 62, no. 4, pp. 2551-2559, Apr. 2015', 'journal': None, 'mag_field_of_study': ['Engineering', 'Mathematics', 'Computer Science']}
82,288
Många verkliga uppgifter involverar flera agenter med partiell observerbarhet och begränsad kommunikation. Lärande är utmanande i dessa miljöer på grund av lokala synpunkter på agenter, som uppfattar världen som icke-stationär på grund av att samtidigt utforska lagkamrater. Metoder som lär sig specialiserad politik för enskilda uppgifter möter problem när de tillämpas på den verkliga världen: inte bara måste agenter lära sig och lagra distinkta strategier för varje uppgift, men i praktiken är uppgifters identiteter ofta inte observerbara, vilket gör dessa strategier otillämpliga. Detta dokument formaliserar och tar upp problemet med multi-task multi-agent förstärkning lärande under partiell observerbarhet. Vi inför ett decentraliserat sätt att lära sig en enda uppgift som är robust för samtidiga interaktioner mellan lagkamrater, och presenterar ett tillvägagångssätt för att destillera en enda uppgift till en enhetlig politik som fungerar bra över flera relaterade uppgifter, utan uttryckligt tillhandahållande av uppgiftsidentitet.
REF formaliserar och tar itu med problemet med multi-task multi-agent förstärkning lärande under partiell observerbarhet.
8,894,704
Deep Decentralized Multi-task Multi-Agent Reinforcement Learning under Partial Observability
{'venue': 'Proceedings of the 34th International Conference on Machine Learning (ICML 2017), Sydney, Australia, PMLR 70:2681-2690, 2017', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,289
Abstrakt. Problemet med automatisk inställning av flera parametrar för mönsterigenkänning Support Vector Machines (SVMs) beaktas. Detta görs genom att minimera vissa uppskattningar av generalisering fel av SVMs med hjälp av en lutning nedstigning algoritm över uppsättningen parametrar. Vanliga metoder för att välja parametrar, baserade på uttömmande sökning blir svåråtkomliga så snart antalet parametrar överstiger två. Vissa experimentella resultat bedömer genomförbarheten av vårt tillvägagångssätt för ett stort antal parametrar (mer än 100) och visar en förbättring av generaliseringens prestanda.
År 2002, Chapelle et al. föreslog en metod för att justera kärnparametrar av SVMs med hjälp av en lutning nedstigningsalgoritm REF.
14,607,075
Choosing Multiple Parameters for Support Vector Machines
{'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,290
Kärnrobotar utgör ett betydande hot mot datorsystemen eftersom de löper på högsta prioritetsnivå och har obegränsad tillgång till offrens resurser. Många pågående insatser inom kärnrootkitförsvar fokuserar på upptäckt av kärnrootkit - efter en rootkit attack har ägt rum, medan det mindre antalet insatser i kärnrootkit förebyggande uppvisar begränsningar i deras förmåga eller utplacering. I detta dokument presenterar vi ett kärnrootkit preventionssystem som heter NICKLE som behandlar en vanlig, grundläggande egenskap hos de flesta kärnrootkit: behovet av att köra sin egen kärnkod. NICKLE är ett lätt, virtuell maskinmonitor (VMM)-baserat system som på ett transparent sätt förhindrar exekvering av otillåten kärnkod för omodifierade operativsystem (gäster). NICKLE är baserat på ett nytt system som kallas minnesskuggning, där den betrodda VMM behåller ett skuggfysiskt minne för en körande VM och utför autentisering av kärnans kod i realtid så att endast autentiserad kärnkod lagras i skuggminnet. Dessutom leder NICKLE transparent gästkärnan instruktioner hämtar till skuggminnet på runtime. Genom att göra det garanterar NICKLE att endast den autentiserade kärnkoden kommer att köras, vilket omintetgör kärnans rootkitts försök att slå till från början. Vi har implementerat NICKLE i tre VMM-plattformar: QEMU+KQEMU, VMware Workstation och VirtualBox. Våra experiment med 23 verkliga kärnrootkit som riktar sig mot Linux eller Windows OS visar NICKLEs effektivitet. Dessutom visar vår prestandautvärdering att NICKLE introducerar små omgångar till VMM-plattformen (t.ex. < 2% till QEMU+KQEMU).
NICKLE REF är ett lättviktigt VMM-baserat system som på ett transparent sätt förhindrar exekvering av otillåten kärnkod för omodifierade operativsystem genom att implementera minnesskuggning: VMM upprätthåller ett skuggfysiskt minne för en VM som körs och det ger transparenta rutter till instruktioner om gästkärnan som hämtas till skuggminnet så att det kan garantera att endast den autentiserade kärnkoden kommer att köras.
497,050
Guest-Transparent Prevention of Kernel Rootkits with VMM-based Memory Shadowing
{'venue': 'In Proceedings of the 11th International Symposium on Recent Advances in Intrusion Detection (RAID', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,291
Typiska metoder för återidentifiering (ReID) beskriver vanligtvis varje fotgängare med en enda vektor och matchar dem i ett aktivitetsspecifikt metriska utrymme. Metoderna baserade på en enda vektor räcker dock inte för att övervinna den visuella tvetydigheten, som ofta förekommer i verkliga scenarion. I detta dokument föreslår vi en ny endto-end trainingable ram, kallad Dual Attention Matching Network (DuATM), för att lära sig kontext-medvetna funktionssekvenser och utföra uppmärksam sekvensjämförelse samtidigt. Kärnkomponenten i vårt DuATM ramverk är en dubbel uppmärksamhetsmekanism, där både intrasekvens och inter-sekvens uppmärksamhetsstrategier används för funktionsförfining respektive funktion-par justering, respektive. På så sätt kan detaljerade visuella signaler i de mellanliggande funktionssekvenserna utnyttjas automatiskt och jämföras på rätt sätt. Vi utbildar det föreslagna DuATM-nätverket som ett siamesnätverk via en tripletförlust assisterad med en dekorrelationsförlust och en korsentropiförlust. Vi utför omfattande experiment på både bild- och videobaserade ReID-riktmärkesdata. Experimentella resultat visar på de betydande fördelarna med vår strategi jämfört med de senaste metoderna. 1 I det här dokumentet hänvisar vi till en grupp av funktionsvektorer som funktionssekvens om de har rumsliga/temporala intilliggande relationer; annars som funktionsuppsättning.
................................................................................................................ utforma ett nätverk med dubbel uppmärksamhet för att lära sig sammanhangsmedvetna funktionssekvenser och tillämpa dubbel uppmärksam jämförelse REF.
4,418,812
Dual Attention Matching Network for Context-Aware Feature Sequence Based Person Re-identification
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
82,292
Mobila manipulationsproblem med många objekt är svåra att lösa på grund av den höga dimensionaliteten och multimodaliteten i deras hybrida konfigurationsutrymmen. Planerare som utför en rent geometrisk sökning är oöverkomligt långsamma för att lösa dessa problem eftersom de inte kan faktorisera konfigurationsutrymmet. Symboliska uppgift planerare kan effektivt konstruera planer som omfattar många variabler men kan inte representera de geometriska och kinematiska begränsningar som krävs vid manipulation. Vi presenterar FFROB algoritmen för att lösa problem med uppgifts- och rörelseplanering. För det första inför vi Extended Action Specification (EAS) som en allmän planeringsrepresentation som stöder godtyckliga predikat som villkor. Vi anpassar heuristiska sökidéer för att lösa STRIPS planeringsproblem, särskilt ta bort avslappning, för att lösa EAS problemfall. Vi tillämpar sedan EAS representation och planerare på manipulationsproblem som resulterar i FFROB. FFROB diskreterar iterativt problem med uppgifts- och rörelseplanering med hjälp av partiprovtagning av primitiva manipulationer och en multi-query färdplansstruktur som kan villkoras för att utvärdera tillgänglighet under olika placeringar av rörliga föremål. Denna struktur gör det möjligt för EAS-planeraren att effektivt beräkna heuristik som innefattar geometriska och kinematiska planeringsbegränsningar för att ge en snäv uppskattning av avståndet till målet. Dessutom visar vi att FFROB är probabilistiskt komplett och har ändlig förväntad körtid. Slutligen demonstrerar vi empiriskt FFROB:s effektivitet när det gäller komplexa och varierande uppgifts- och rörelseplaneringsuppgifter, inklusive omläggningsplanering och navigering bland rörliga föremål.
En iterativ version av FFRob är probabilistiskt komplett och exponentiellt konvergerande REF.
3,969,870
FFRob: Leveraging Symbolic Planning for Efficient Task and Motion Planning
{'venue': 'The International Journal of Robotics Research (IJRR), 2017', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,293
Abstrakt. Det starkaste standardsäkerhetsbegreppet för system för digitala signaturer är oförfalskadhet under valda meddelandeattacker. I praktiken kan detta begrepp dock vara otillräckligt på grund av "side-channel attacker" som utnyttjar läckage av information om den hemliga interna staten. I detta arbete lade vi fram begreppet "läckagetåliga signaturer", som stärker standardsäkerhetsbegreppet genom att ge motståndaren ytterligare makt att lära sig en begränsad mängd godtycklig information om den hemliga staten som var tillgänglig under varje signaturgeneration. Detta begrepp innebär naturligtvis säkerhet mot alla sidokanalsattacker så länge den mängd information som läcker ut på varje anrop begränsas och "endast beräkning läcker information". Huvudresultatet av detta dokument är en konstruktion som ger ett (trädbaserat, stateful) läckagetåligt signatursystem baserat på ett trefaldigt signatursystem. Mängden information som vårt system säkert kan läcka per signaturgenerering är 1/3 av den information som det underliggande trefaldiga signatursystemet kan läcka totalt. Signature system som förblir säkra även om en begränsad total mängd information läcker nyligen konstruerades, vilket omedelbart vår konstruktion med dessa system ger de första konstruktionerna av bevisligen säkra läckage-resilient signatursystem. Ovanstående konstruktion förutsätter att signeringsalgoritmen kan provsmaka verkligt slumpmässiga bitar, och därmed ett genomförande skulle behöva någon speciell hårdvara (randomness grindar). Att helt enkelt generera denna slumpmässighet med hjälp av ett läckageavvisande stream-chiffer kommer i allmänhet inte att fungera. Vårt andra bidrag är en sund allmän princip för att ersätta enhetliga slumpmässiga bitar i alla läckagetåliga konstruktioner med pseudorandom sådana: köra två läckage-resilient ström chiffers (med oberoende nycklar) parallellt och sedan tillämpa en två källa extraktor på sina utgångar.
Faust m.fl. REF konstruerade ett tillståndsenligt, trädbaserat signatursystem i modellen "endast beräkningsläckage" baserat på ett trefaldigt säkert signatursystem.
14,526,568
Leakage-Resilient Signatures
{'venue': 'in International Colloquium on Automata, Languages and Programming', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,294
Abstract-Estimating mänsklig ålder automatiskt via ansiktsbild analys har massor av potentiella verkliga tillämpningar, såsom mänsklig dator interaktion och multimedia kommunikation. Det är dock fortfarande ett utmanande problem för de befintliga systemen för datorseende att automatiskt och effektivt uppskatta människans ålder. Åldrandet bestäms av inte bara personens gen, men också många yttre faktorer, såsom hälsa, livsstil, boende och väderförhållanden. Hanar och honor kan också åldras annorlunda. Den nuvarande åldersuppskattningen är fortfarande inte tillräckligt bra för praktisk användning och mer insatser måste göras i denna forskningsriktning. I den här artikeln introducerar vi ett åldersanpassat inlärningsprogram för att extrahera ansiktsåldrande funktioner och designa en lokalt anpassad robust regressator för lärande och förutsägelse av människans åldrar. Den nya metoden förbättrar åldersuppskattningsnoggrannheten betydligt jämfört med alla tidigare metoder. Fördelen med de föreslagna metoderna för bildbaserad åldersuppskattning framgår av omfattande experiment på en stor intern åldersdatabas och den allmänt tillgängliga FG-NET-databasen. Index Terms-Age grenrör, mänsklig ålder uppskattning, lokalt justerad robust regression, mångfaldig inlärning, icke-linjär regression, stöd vektor maskin (SVM), stödja vektor regression (SVR).
Den grundläggande idén är att lära sig en låg-dimensionell inbäddning av åldrandet mångfaldiga REF.
10,018,418
Image-Based Human Age Estimation by Manifold Learning and Locally Adjusted Robust Regression
{'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,295
Det finns två stora typer av osäkerhet man kan modellera. Aleatorisk osäkerhet fångar buller som ingår i observationerna. Å andra sidan förklarar den epistemiska osäkerheten osäkerheten i modellens osäkerhet som kan förklaras bort med tillräckligt med data. Traditionellt har det varit svårt att modellera epistemisk osäkerhet i datorseendet, men med nya Bayesianska djupinlärningsverktyg är detta nu möjligt. Vi studerar fördelarna med att modellera epistemisk vs. aleatorisk osäkerhet i Bayesian djupt lärande modeller för vision uppgifter. För detta presenterar vi en Bayesiansk ram för djupt lärande som kombinerar input-beroende aleatorisk osäkerhet tillsammans med epistemisk osäkerhet. Vi studerar modeller inom ramen med per-pixel semantiska segmentering och djup regressionsuppgifter. Dessutom leder vår explicita osäkerhetsformulering till nya förlustfunktioner för dessa uppgifter, som kan tolkas som inlärd dämpning. Detta gör förlusten mer robust mot bullriga data, vilket också ger nya state-of-the-art resultat på segmentering och djup regression riktmärken.
På grund av högdimensionella datadistributioner är modellering av aleatorisk osäkerhet mycket viktigt för att lyckas i datorseende uppgifter REF.
71,134
What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vision?
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,296
Bakgrund: Tillgången till storskaliga curerade proteininteraktionsdata har gett möjlighet att undersöka högre nivå organisation och modularitet inom proteininteraktionsnätverket (PPI) med hjälp av grafteoretisk analys. Trots de senaste framstegen, systemnivåanalys av PPIS är fortfarande en skrämmande uppgift eftersom det är utmanande att göra vettigt ur översvämningen av högdimensionella interaktionsdata. Specifikt, tekniker som automatiskt abstrakt och sammanfatta Podis vid flera resolutioner för att ge hög nivå vyer över sitt funktionella landskap saknas fortfarande. Vi presenterar en ny datadriven och generisk algoritm som kallas FUSE (Functional Summary Generator) som genererar funktionella kartor över en PPI på olika nivåer av organisation, från breda process-process nivå interaktioner till djupgående komplexa-komplex nivå interaktioner, genom ett pro t maximization tillvägagångssätt som utnyttjar Minimum Description Length (MDL) princip för att maximera informationsvinsten av den sammanfattande grafen samtidigt som den uppfyller detaljbegränsningen. Resultat: Vi utvärderar resultatet av FUSE på flera verkliga PPIS. Vi jämför också FUSE med toppmoderna grafklustermetoder med GO term berikning genom att bygga det biologiska processlandskapet i PPIS. Med hjälp av AD-nätverk som vår fallstudie, visar vi ytterligare förmågan hos FUSE att snabbt sammanfatta nätverket och identifiera många olika processer och komplex som reglerar det. Slutligen studerar vi den högre ordningens konnektivitet hos den mänskliga PPI. Slutsats: Genom att samtidigt utvärdera interaktions- och notdata, abstracts FUSE högre ordning interaktionskartor genom att minska detaljerna i den underliggande PPI till att bilda en funktionell sammanfattning diagram över sammankopplade funktionella kluster. Våra resultat visar dess effektivitet och överlägsenhet över state-of-the-art graf klustering metoder med GO term berikning.
FUSE REF genererar funktionella kartor (kluster) av ett PPI-nätverk på olika nivåer av granularitet.
14,454,962
FUSE: a profit maximization approach for functional summarization of biological networks
{'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,297
Återhämtning av bilder baserat på deras visuella likhet med en exempelbild är ett viktigt och fascinerande forskningsområde. Här diskuterar vi olika sätt på vilka visuellt utseende kan karakteriseras för att bestämma både global och lokal likhet i bilder. En populär metod innebär beräkning av globala åtgärder som momentinvarianter för att karakterisera global likhet. Även om detta innebär att bilden kan karakteriseras med hjälp av några siffror, prestandan är ofta dålig. Tekniker baserade på momentinvarianter presterar ofta dåligt. De kräver att objektet är en binär form utan hål som ofta inte är praktiskt. Dessutom är momentinvarianter känsliga för buller. Visuellt utseende representeras bättre med hjälp av lokala funktioner som beräknas på flera skalor. Sådana lokala funktioner kan inkludera utgångar av bilder filtrerade med Gaussiska derivat, differentialinvarianter eller geometriska storheter som krökning och fas. Två bilder kan sägas vara likartade om de har liknande distributioner av sådana funktioner. Den globala likheten kan därför härledas genom att man jämför histogram över sådana egenskaper. Detta kan göras snabbt. Histogram kan inte användas för att beräkna lokal likhet. Istället, begränsningen att den rumsliga relationen mellan funktionerna i frågan liknar den rumsliga relationen mellan funktionerna i dess matchande motsvarigheter i databasen ger ett sätt att beräkna lokal likhet. De metoder som presenteras här kräver inte föregående segmentering av databasen. När det gäller lokal representation kan objekt inbäddas i godtyckliga bakgrunder och båda metoderna hanterar en rad storleksvariationer och synvinklar upp till 20 eller 25 grader.
I tidigare arbete visade vi att lokala funktioner som beräknas med Gaussiska derivatfilter kan användas för lokal likhet, dvs.. för att hämta delar av bilder REF.
206,405,918
Computing local and global similarity in images
{'venue': 'Electronic Imaging', 'journal': None, 'mag_field_of_study': ['Physics', 'Engineering', 'Computer Science']}
82,298
Vi rapporterar om design, implementering och utvärdering av ett system som heter Cedar som möjliggör mobil databasåtkomst med bra prestanda över lågbandsbredd nätverk. Detta åstadkoms utan förnedrande konsekvens. Cedar utnyttjar disklagrings- och bearbetningskraften hos en mobil klient för att kompensera för svag konnektivitet. Dess centrala organisation princip är att även en gammal klient replika kan användas för att minska dataöverföring volym från en databas server. Minskningen uppnås genom att använda innehållstillgänglig lagring för att upptäcka och eliminera allmängiltighet mellan klient- och serverresultat. Denna organisationsprincip gör det möjligt för Cedar att använda ett optimistiskt tillvägagångssätt för att lösa det svåra problemet med databas replika kontroll. För kunder i laptopklass visar våra experiment att Cedar förbättrar genomströmningen av läsbördan med 39% till så mycket som 224% och samtidigt minskar svarstiden med 28% till så mycket som 79%.
Cedar använder innehåll adresserbar lagring för att upptäcka likheten mellan server- och klientresultat, vilket gör att det är ett enkelt sätt att använda den optimistiska metoden för att lösa databas replika kontroll problem REF.
6,051,694
Improving mobile database access over wide-area networks without degrading consistency
{'venue': "MobiSys '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,299
Vi presenterar Schism, en ny arbetsbörda-medveten metod för databaspartitionering och replikering utformad för att förbättra skalbarheten av delade inget distribuerade databaser. Eftersom distribuerade transaktioner är dyra i OLTP-inställningar (ett faktum som vi demonstrerar genom en serie experiment), försöker våra partitioner att minimera antalet distribuerade transaktioner, samtidigt som de producerar balanserade partitioner. Schism består av två faser: i) en arbetsbelastningsdriven, grafbaserad replikerings-/delningsfas och ii) en förklarings- och valideringsfas. Den första fasen skapar en graf med en nod per tuple (eller grupp av tuples) och kanter mellan noder som nås av samma transaktion, och sedan använder en graf partitioner för att dela grafen i k balanserade partitioner som minimerar antalet korspartition transaktioner. Den andra fasen utnyttjar maskininlärningsteknik för att hitta en predikatbaserad förklaring av partitioneringsstrategin (dvs. en uppsättning intervallpredikat som representerar samma replikering/partitioneringsschema som produceras av partitioneraren). De starka sidorna av Schism är: i) oberoende från schema layout, ii) effektivitet på n-to-n relationer, typiskt i sociala nätverk databaser, iii) en enhetlig och finkornig strategi för replikering och partitionering. Vi implementerade och testade en prototyp av Schism på ett brett spektrum av testfall, allt från klassiska OLTP arbetsbelastningar (t.ex. TPC-C och TPC-E), till mer komplexa scenarier som härrör från sociala nätverk webbplatser (t.ex. Epinions.com), vars schema innehåller flera n-to-n relationer, som är kända för att vara svåra att partitionera. Schism överträffar konsekvent enkla partitioneringssystem, och i vissa fall visar sig överlägsen den mest kända manuella partitioneringen, vilket minskar kostnaden för distribuerade transaktioner upp till 30%.
I Schism REF, en arbetsbörda-medveten fragmentering metod förbättrar skalbarheten av distribuerade databaser.
15,079,915
Schism: a Workload-Driven Approach to Database Replication and Partitioning
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
82,300
Vi presenterar tre nya samordningsmekanismer för schemaläggning av själviska arbeten på icke-närstående maskiner. En samordningsmekanism syftar till att mildra effekterna av arbetstillfällens själviskhet på tidtabellernas effektivitet genom att fastställa en lokal schemaläggningspolitik för varje maskin. Schemaläggningen politik framkallar ett spel bland jobben och varje jobb föredrar att schemaläggas på en maskin så att dess slutförande tid är minimum med tanke på uppdrag av de andra jobben. Vi anser att den maximala tiden för slutförande av alla arbetstillfällen är ett mått på tidtabellernas effektivitet. Det approximativa förhållandet mellan en samordningsmekanism kvantifierar effektiviteten hos ren Nash equilibria (priset på anarki) i det inducerade spelet. Våra mekanismer är deterministiska, lokala och förebyggande i den meningen att schemaläggningspolitiken inte nödvändigtvis behandlar jobben på ett oavbrutet sätt och kan införa en viss ledig tid. Vår första samordningsmekanism har approximation ratio och alltid garanterar att det inducerade spelet har ren Nash ekvilibria som systemet konvergerar i de flesta n rundor. Detta resultat förbättrar en gräns av O(log 2 m) på grund av Azar, Jain, och Mirrokni och, på samma sätt som deras mekanism, vår mekanism använder en global beställning av jobben enligt deras distinkta ID. Därefter studerar vi det spännande scenariot där jobben är anonyma, d.v.s. de saknar ID. I detta fall kan samordningsmekanismerna endast skilja mellan arbetstillfällen med olika belastningsegenskaper. Vår andra mekanism hanterar anonyma jobb och har approximation förhållande O( log m log log m ) även om spelet induceras är inte ett potentiellt spel och, därför, förekomsten av ren Nash equilibria inte garanteras av potentiella funktion argument. Den ger dock belägg för att de kända lägre gränserna för icke förebyggande samordningsmekanismer skulle kunna besegras med hjälp av förebyggande schedul-A preliminär version av resultaten av detta dokument framträdde i Algorithmica (2013) 66:512-540 513. Vår tredje samordningsmekanism hanterar också anonyma jobb och har en fin "kostnadsuppenbarande" potentiell funktion. Vi använder denna potentiella funktion för att, inte bara för att bevisa förekomsten av jämvikt, men också för att höja priset på stabilitet i det inducerade spelet av O (log m) och priset på anarki av O(log 2 m). Vår tredje samordningsmekanism är den första som hanterar anonyma jobb och samtidigt garanterar att det inducerade spelet är ett potentiellt spel och har avgränsat priset på anarki. För att uppnå ovanstående gränser använder våra samordningsmekanismer m som parameter. Lätta variationer av dessa mekanismer där denna information inte är nödvändig uppnå approximativa förhållande av O(m ), för varje konstant > 0.
Caragiannis REF visade därefter en alternativ O(log m)-ungefärlig samordningsmekanism som minimerar makepan för icke-närstående maskin schemaläggning som leder till potentiella spel.
7,461,168
Efficient Coordination Mechanisms for Unrelated Machine Scheduling
{'venue': 'Algorithmica', 'journal': 'Algorithmica', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,301
Abstrakt. Under de senaste åren har paradigmet för komponentbaserad programvaruteknik etablerats i byggandet av komplexa uppdragskritiska system. På grund av denna trend finns det ett praktiskt behov av tekniker som utvärderar kritiska egenskaper (t.ex. säkerhet, tillförlitlighet, tillgänglighet eller prestanda) hos dessa system. I det här dokumentet går vi igenom flera tekniker på hög nivå för utvärdering av säkerhetsegenskaper för komponentbaserade system och föreslår en ny utvärderingsmodell (State Event Fault Trees) som förlänger säkerhetsanalysen mot en lägre abstraktionsnivå. Denna modell har en state-event semantik och stark inkapsling, vilket är särskilt användbart för utvärdering av komponentbaserade programvarusystem. Slutligen jämför vi teknikerna och ger förslag på deras kombinerade användning.
Säkerhetsanalys för komponentbaserade system har beaktats i REF, med hjälp av statliga felträd.
9,370,124
Model-driven safety evaluation with state-event-based component failure annotations
{'venue': 'CBSE, Lecture Notes in Computer Science 3489 (2005', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,302
Abstract-Dataflow har visat sig vara en attraktiv beräkningsmodell för programmering av tillämpningar för digital signalbehandling (DSP). En begränsad version av dataflöde, så kallat synkront dataflöde (SDF), som erbjuder starka kompileringstidsförutsägbarhetsegenskaper, men har begränsad expressiv kraft, har studerats ingående i DSP-sammanhang. Många utvidgningar till synkront dataflöde har föreslagits för att öka dess expressivitet samtidigt som dess kompilerings-tid förutsägbarhet egenskaper så mycket som möjligt. Vi föreslår en parameteriserad dataflöde ram som kan tillämpas som en meta-modellering teknik för att avsevärt förbättra uttryckskraften hos någon dataflödesmodell som har en väldefinierad koncept av en graf iteration. Det parameteriserade ramverket för dataflöde är kompatibelt med många av de befintliga dataflödesmodellerna för DSP, inklusive SDF, cyklostatiskt dataflöde, skalbart synkront dataflöde och Booleskt dataflöde. I detta dokument utvecklar vi precisa, formella semantik för parameteriserat synkront dataflöde (PSDF)-tillämpningen av vårt parameteriserade modelleringsramverk till SDF-som gör det möjligt att modellera databeroende, dynamiska DSP-system på ett naturligt och intuitivt sätt. Genom vår utveckling av PSDF visar vi att önskvärda egenskaper hos en DSP modellering miljö såsom dynamisk omkonfigurerbarhet och design återanvändning framträder som inneboende egenskaper i vår parameteriserade ramverk. Ett exempel på ett talkompressionsprogram används för att illustrera effekten av PSDF-metoden och dess förmåga att hantera effektiva programvarusyntestekniker. Dessutom illustrerar vi generaliteten i vårt parameteriserade ramverk genom att diskutera dess tillämpning på cyklostatiskt dataflöde, vilket är ett populärt alternativ till SDF-modellen. Index Terms-CAD verktyg, dataflöde modellering, inbyggda system, omkonfigurerbar design, programvarusyntes. T HE INCREASING användning av konfigurerbara hårdvarutekniker i digital signalbehandling (DSP) systemdesign, tillsammans med den ständiga trenden mot mer dynamiskt beteende och omkonfigurerbarhet i DSP-tillämpningar, leder till en syn på DSP systemdesign som den gemensamma designen av arkitekturer (design substrat), parameteriseringar (designalternativ som exponeras för högre nivåer av abstraktion), och konfigurationer (uppsättningar av designval för relevanta parameteriseringar) [6], som illustreras i Utgivare Identifier S 1053-587X(01)07764-9. på en programmerbar DSP-processor kan beskrivas som codesign av mikroarkitekturen (arkitekturen), instruktionsuppsättningen (en parameterisering av arkitekturen), och programvaran som konfigurerar mikroarkitektur / instruction set paret för uppsättningen av applikationsfunktioner. Som ett annat exempel kan utformningen av en digital filtreringsunderrutin ses som samdesign av en programvarumall (t.ex. en sekvens av för loopar), en uppsättning mallparametrar (t.ex. antal kranar och filterkoefficienter) och en uppsättning förväntade parametervärdeskombinationer som ofta kommer att användas. Denna trend mot visning design i termer av konfigurationer av parameteriserade substrat omvandlar snabbt den en gång klar separation mellan hårdvara och programvara till en kontinuum av kompromisser mellan specialisering och flexibilitet. Det blir därför allt viktigare att tillhandahålla exakta och kraftfulla mekanismer för modellering av parameterisering och konfigurerbarhet i designverktyg för DSP-system. Motiverade av detta växande behov utvecklar vi i detta dokument formella semantik för modellering av DSP-tillämpningar som fångar upp samdesignrelationerna med Fig. 1 och leder till effektiva tekniker för automatiserad syntes av implementeringar. I synnerhet introducerar vi parameteriserat dataflöde som en meta-modelleringsteknik som kan tillämpas på ett brett spektrum av dataflödesmodeller för att avsevärt öka deras uttryckskraft, så att databeroende, dynamiskt omkonfigurerbara DSP-system kan uttryckas på ett naturligt och intuitivt sätt. Våra parameteriseringskoncept kan inkorporeras i alla dataflödesmodeller där det finns ett begrepp om en graf iteration. Till exempel är det parameteriserade ramverket kompatibelt med många av de befintliga dataflödesmodellerna såsom synkront dataflöde [19], skalbart synkront dataflöde [25], cyklostatiskt dataflöde [9] och booleskt dataflöde [11]. För tydlighet och enhetlighet, och eftersom SDF för närvarande är den mest populära och allmänt studerade dataflödesmodellen för DSP, utvecklar vi parameteriserat dataflöde formellt inom ramen för SDF (kallas parameteriserat synkront dataflöde (PSDF)). Utöver den formella modellen har vi även utvecklat effektiva programvarusyntestekniker (kallas kvasistatisk schemaläggning) för en klass av PSDF-specifikationer, som diskuteras i avsnitt VI-A. Ett talkompressionsprogram som modelleras i avsnitt VIII visar ett exempel på att tillämpa PSDF-teknik på verkliga DSP-designer. I avsnitt IX illustrerar vi generaliteten i det parameteriserade dataflödesramverket genom att
I REF föreslås en meta-modelleringsteknik för att öka expressionskraften hos ett brett spektrum av befintliga dataflödesmodeller som har grafireringskonceptet.
18,680,725
Parameterized Dataflow Modeling for DSP Systems
{'venue': 'IEEE Transactions on Signal Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,303
De utmärkande dragen i akustisk kommunikation kanal-liknande hög utbredning fördröjning, multi-pat blekning, snabb dämpning av akustisk signal, etc. begränsa användningen av trådlösa sensornätverk under vatten (UWSN). Det oföränderliga urvalet av skotarnod leder till en dramatisk död av nod vilket resulterar i obalanserad energiutarmning och tomhålsskapande. För att minska sannolikheten för ogiltig förekomst och obalans energiavledning, föreslår vi i detta dokument rörlighet assisterad geo-opportunistiska routing paradigm som bygger på interferensundvikande för UWSNs. Nätverksvolymen är uppdelad i logiska små kuber för att minska störningen och för att göra mer informerade routing beslut för effektiv energiförbrukning. Dessutom väljs ett optimalt antal skotare noder från varje kub baserat på dess närhet med avseende på destinationen för att undvika ogiltig förekomst. Dessutom återvinns datapaketen från tomma regioner med hjälp av mobila sänkor som också minskar datatrafiken på mellanliggande noder. Omfattande simuleringar utförs för att verifiera att vårt föreslagna arbete maximerar nätverkets livslängd och paketleveransförhållandet.
I REF har författare arbetat på opportunistiska och geografiska routing protokoll baserat på interferens undvikande för undervattens WSNs.
4,648,450
Mobile Sinks Assisted Geographic and Opportunistic Routing Based Interference Avoidance for Underwater Wireless Sensor Network
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Engineering', 'Computer Science']}
82,304
Till skillnad från mänskligt lärande misslyckas maskininlärning ofta med att hantera förändringar mellan utbildning (källa) och test (mål) ingångsdistributioner. Sådana domänskiften, vanliga i praktiska scenarier, allvarligt skadar prestandan hos konventionella maskininlärningsmetoder. Övervakade metoder för domänanpassning har föreslagits för fallet när måldata har etiketter, inklusive några som fungerar mycket bra trots att de är "frustratingly lätt" att genomföra. I praktiken är dock måldomänen ofta omärkt, vilket kräver en oövervakad anpassning. Vi föreslår en enkel, effektiv och effektiv metod för oövervakad domänanpassning som kallas KORRELATION (CORAL). CORAL minimerar domänbytet genom att anpassa den andra ordningens statistik över käll- och målfördelningar, utan att kräva några målmärkningar. Även om det är utomordentligt enkelt-det kan genomföras i fyra rader av Matlab code-CORAL presterar anmärkningsvärt bra i omfattande utvärderingar på standardriktvärden dataset. "Allt ska göras så enkelt som möjligt, men inte enklare."
Korrelationsanpassning (CORAL) REF minimerar domänbytet genom att anpassa andra ordningens statistik över käll- och målfördelningar.
16,439,870
Return of Frustratingly Easy Domain Adaptation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,305
Abstract-Paketet par mekanism har visat sig vara en tillförlitlig metod för att mäta flaskhals länkkapacitet på en nätverksbana, men dess användning för att mäta tillgänglig bandbredd är mer utmanande. I det här dokumentet använder vi modellering, mätningar och simuleringar för att bättre karakterisera samspelet mellan provpaket och den konkurrerande nätverkstrafiken. Först konstruerar vi en enkel modell för att förstå hur konkurrerande trafik förändrar gapet mellan paketen för ett enda nätverk. gapmodellen visar att den initiala undersökningsklyftan är en kritisk parameter när man använder paketpar för att uppskatta tillgänglig bandbredd. Baserat på denna insikt presenterar vi två tillgängliga bandbreddsmätningsmetoder, den initiala gapökningsmetoden (IGI) och metoden för paketöverföringshastighet (PTR). Vi använder omfattande internetmätningar för att visa att dessa tekniker uppskattar tillgänglig bandbredd snabbare än befintliga tekniker som Pathload, med jämförbar noggrannhet. Slutligen, med hjälp av både Internet-mätningar och ns-simuleringar, undersöker vi hur mätnoggrannheten hos aktiv undersökning påverkas av faktorer som undersökning av paketstorlek, längden på undersökning av pakettåg och den konkurrerande trafiken på andra länkar än den täta länken. Index Terms-Active undersökning, tillgänglig bandbredd, Internet, nätverksmätning.
IGI är ett ABW mätsystem baserat på sondgap modell REF.
16,980,447
Evaluation and Characterization of Available Bandwidth Probing Techniques
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,306
Detta dokument presenterar införandet av WordNet semantiska klasser i en beroendetolk, få förbättringar på hela Penn Treebank för första gången. Vi provade olika kombinationer av några grundläggande semantiska klasser och ord sense disambiguation algoritmer. Våra experiment visar att valet av lämplig kombination av semantiska egenskaper på utvecklingsdata är nyckeln till framgång. Med tanke på den grundläggande karaktären hos de semantiska klasserna och ordförnimmelsens disambigeringsalgoritmer som används, anser vi att det finns gott om utrymme för framtida förbättringar. Att använda semantisk information för att förbättra tolkningsprestanda har varit en intressant forskningsväg sedan NLP:s första dagar, och flera forskningsprojekt har försökt testa intuitionen att semantik ska hjälpa till att tolka, vilket kan exemplifieras av de klassiska PP-experimenten (Ratnaparkhi, 1994). Även om vissa viktiga resultat har uppnåtts (se avsnitt 2) är denna fråga fortfarande svåråtkomlig. I princip erbjuder beroendetolkning goda möjligheter att experimentera med ord-till-ord-semantiska relationer. Vi presenterar en uppsättning experiment med semantiska klasser vid tolkning av Penn Treebank (PTB). Vi utökar testerna som gjordes i Agirre et al. (2008), som använde sig av olika typer av semantisk information och fick betydande förbättringar i två valmanstolkar, vilket visar hur semantisk information bidrar till att tolka valkretsen. Som baslinjetolk använder vi MaltParser (Nivre, 2006). Vi kommer att utvärdera tolken på både den fullständiga PTB (Marcus et al. 1993 ) och på en senseannoterad delmängd av Brown Corpus del av PTB, för att undersöka den övre gränsen prestanda för de modeller som ges guld-standard sense information, som i Agirre et al. (2008)................................................................. Agirre m.fl. (2008) utbildade två toppmoderna statistiska tolkar (Charniak, 2000; Birgel, 2004 ) om semantiskt berikade indata, där innehållsord hade ersatts med deras semantiska klasser. Detta gjordes för att försöka övervinna begränsningarna av lexikaliserade metoder för tolkning (Magerman, 1995; Collins, 1996; Charniak, 1997; Collins, 2003), där relaterade ord, som sax och kniv inte kan generaliseras. Denna enkla metod tillät att lexisk semantisk information införlivades i tolken. De testade tolkarna i både en fullständig tolkning och ett PP-tilläggssammanhang. Experimenten visade att semantiska klasser gav signifikant förbättring i förhållande till baslinjen, vilket visar att ett förenklat tillvägagångssätt för att införliva lexical semantics i en parser avsevärt förbättrar dess prestanda. Detta arbete presenterade de första resultaten över både WordNet och Penn Treebank för att visa att semantisk bearbetning hjälper tolkning. Collins (2000) testade en kombinerad tolkning/word sense disambiguation modell baserad i WordNet som inte fick förbättringar i tolkning. presenterade en halvövervakad metod för att träna beroendetolkar, med hjälp av ordkluster som härrör från en stor oannoterad corpus som funktioner. De visar hur effektivt tillvägagångssättet är i en rad försök att tolka beroendet av PTB och Prague Dependency Treebank, vilket visar att de klusterbaserade funktionerna ger betydande resultatvinster under en lång rad olika förhållanden. Suzuki m.fl. (2009) också experimentera med samma metod i kombination med halvövervakat lärande. Försäkringstekniska avsättningar för försäkringstekniska avsättningar beräknade som helhet netto (efter återförsäkring/specialföretag) och försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag) för försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag) och försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag) för försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag) och försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag) för försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag) och försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag) för försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag) och försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag)
Senare introducerade REF framgångsrikt WordNet klasser i en beroendetolk, få förbättringar på hela PTB med hjälp av guld POS-taggar, försöker olika kombinationer av semantiska klasser.
4,328,886
Improving Dependency Parsing with Semantic Classes
{'venue': 'Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,307
Vi föreslår en ny crowd counting metod som utnyttjar rikligt tillgängliga omärkta crowd imagery i en lärande-to-rank ram. För att inducera en rankning av beskärda bilder, Vi använder observationen att någon del-bild av en fullsatt scen bild garanteras att innehålla samma antal eller färre personer än super-bilden. Detta gör att vi kan ta itu med problemet med begränsad storlek på befintliga datauppsättningar för crowd counting. Vi samlar två crowd scen dataset från Google med hjälp av sökordssökningar och frågeby-exempel bildsökning, respektive. Vi visar hur vi på ett effektivt sätt kan lära av dessa omärkta dataset genom att integrera inlärnings-to-rank i ett multi-task-nätverk som samtidigt rankar bilder och uppskattar publiktäthetskartor. Experiment på två av de mest utmanande crowd counting dataseten visar att vår strategi ger toppmoderna resultat.
Annorlunda jämfört med befintliga tillvägagångssätt, Liu et al. REF utnyttjar icke-märkta data för att räkna genom att införa ett ramverk för lärande för att rangordna.
3,787,969
Leveraging Unlabeled Data for Crowd Counting by Learning to Rank
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
82,308
Abstrakt. I detta dokument föreslås en metod för att automatiskt klassificera texter från olika sorter av samma språk. Vi visar att likhetsmått är ett robust verktyg för att studera jämförbara korpora av språkvariationer. Vi tar LDC: s kinesiska gigaword Corpus består av tre sorter av kinesiska från Kina, Singapore och Taiwan, som jämförbara corpora. Ovanstående likhetsåtgärder återspeglar avstånden mellan de tre varianterna av samma språk. En top-bag-of-word likhet baserad kontrasterande metod togs för att lösa problemet text källklassificering. Våra resultat visar att en kontrasterande metod som använder likhet för att utesluta källidentitet och för att komma fram till faktisk källa genom slutledning är mer robust än direkt bekräftelse av källa genom likhet. Vi visar att detta tillvägagångssätt är robust när det tillämpas på andra texter.
Tidigare arbete på detta gjordes genom att föreslå en top-bag-of-word likhet åtgärder för att klassificera texter från olika varianter av samma språk REF.
7,181,443
Contrastive Approach towards Text Source Classification based on Top-Bag-of-Word Similarity
{'venue': 'PACLIC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,309
Abstract-Compressive Sensing (CS) har undersökts i stor utsträckning i den kognitiva radiolitteraturen (CR) för att minska hårdvarukostnaden för att avkänna bredbandssignaler om man antar att man tidigare har kunskap om gleshetsmönstret. Kanalens gleshetsordning är dock tidsvarierande och provtagningshastigheten hos CS-mottagaren måste justeras utifrån dess värde för att till fullo utnyttja potentialen hos CS-baserade tekniker. I detta sammanhang, undersöka blind sparity order estimation (SOE) tekniker är en öppen forskningsfråga. För att ta itu med detta studerar vi en eigen value-baserad kompressiv SOE-teknik med hjälp av asymptotic random matristeori. Vi utför en detaljerad teoretisk analys av signalen plus brusfallet för att härleda den asymptotiska sannolikhetsfördelningsfunktionen för eigenvärde (aepdf) för den uppmätta signalens kovariansmatris för glesa signaler. Därefter, baserat på de härledda epdf-uttrycken, föreslår vi en teknik för att uppskatta glesheten i bredbandsspektrumet med kompressiva mätningar med hjälp av det maximala eigenvärdet av den uppmätta signalens kovariansmatris. Den föreslagna teknikens prestanda utvärderas i form av normaliserat SOE-fel (SOEE). Det visas att bredbandsspektrumets gleshetsordning kan beräknas på ett tillförlitligt sätt med hjälp av den föreslagna tekniken för en rad olika scenarier. Index Terms-Compressive Sensing, slumpmässig matris teori, sparsamhet orderuppskattning, bredband kognitiv radio.
I REF uppskattas sparty grad genom en eigen value-baserad metod, för bredbands kognitiva radiotillämpningar.
13,039,460
Compressive Sparsity Order Estimation for Wideband Cognitive Radio Receiver
{'venue': 'IEEE Transactions on Signal Processing', 'journal': 'IEEE Transactions on Signal Processing', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,310
Med tanke på en uppsättning människor och en rad händelser som de är närvarande vid, tar vi itu med problemet med att mäta samhörighet eller knyta styrka mellan varje par av personer. Det underliggande antagandet är att deltagande vid ömsesidiga händelser ger ett implicit socialt nätverk mellan människor. Vi har ett axiomatiskt förhållningssätt till detta problem. Med utgångspunkt från en lista över axiom, som ett mått på band styrka måste tillfredsställa, vi karakterisera funktioner som uppfyller alla axioms. Vi visar sedan att det finns en rad slips-styrka åtgärder som tillfredsställer denna karakterisering. Ett mått på slipsstyrka framkallar en rankning på kanterna av det sociala nätverket (och på uppsättningen av grannar för varje person). Vi visar att för tillämpningar där rangordningen, och inte det absoluta värdet av slipsstyrkan, är det viktiga med åtgärden, är axiomen likvärdiga med en naturlig partiell ordning. För att besluta om en viss åtgärd måste vi fatta ett icke-uppenbarande beslut om att utvidga denna partiella ordning till en total order. Detta beslut lämnas bäst till särskilda ansökningar. Vi klassificerar också befintliga slip-styrka åtgärder enligt de axiom som de uppfyller; och observera att ingen av de "självreferentiella" slip-styrka åtgärder uppfyller axiom. I våra experiment visar vi effektiviteten i vårt tillvägagångssätt; visar fullständigheten och sundheten i våra axiom, och presentera Kendall Tau Rank Korrelation mellan olika slip-styrka åtgärder.
Gemensamma grannar REF är ett mått på slipsstyrka som tar hänsyn till antalet gemensamma aktiviteter eller vänner som två användare delar.
17,810,084
Measuring tie strength in implicit social networks
{'venue': "WebSci '12", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']}
82,311
Det senaste arbetet har visat att konvolutionella nätverk kan vara betydligt djupare, mer exakta och effektiva att träna om de innehåller kortare anslutningar mellan lager nära ingång och de som är nära utgång. I detta dokument omfamnar vi denna observation och introducerar Dense Convolutional Network (DenseNet), som kopplar varje lager till vartannat lager på ett feed-forward-sätt. Medan traditionella konvolutionsnät med L-lager har L-anslutningar-ett mellan varje lager och dess efterföljande lager-våra nät har L(L+1) 2 direkta anslutningar. För varje lager används funktionskartorna för alla föregående lager som ingångar, och dess egna funktionskartor används som ingångar till alla efterföljande lager. DenseNets har flera övertygande fördelar: de lindrar det försvinnande-gradient problemet, stärka funktionen förökning, uppmuntra funktion återanvändning och avsevärt minska antalet parametrar. Vi utvärderar vår föreslagna arkitektur på fyra mycket konkurrenskraftiga objekt erkännande benchmarking uppgifter SVHN, och ImageNet). DenseNets får betydande förbättringar över state-of-the-art på de flesta av dem, samtidigt som det kräver mindre beräkning för att uppnå hög prestanda. Kod och förträngda modeller finns på https://github.com/liuzhuang13/DenseNet.
Genom anslutningen mellan varje convolution lager, DenseNet REF uppmuntrar funktionen återanvändning och sedan lär sig mer och kompakta funktioner samtidigt som färre parametrar och mindre beräkning med hjälp av 1 × 1 convolution.
9,433,631
Densely Connected Convolutional Networks
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
82,312
Abstract Distribuerad produktion (GD) blir allt viktigare på grund av den ökade efterfrågan på elenergi. GD spelar en viktig roll när det gäller att minska de verkliga elförlusterna, driftskostnaderna och förbättra spänningsstabiliteten, vilket är den objektiva funktionen i detta problem. I detta dokument föreslås en multi-objektiv teknik för att optimalt bestämma placeringen och dimensioneringen av flera distribuerade genereringsenheter (GD) i distributionsnätet med olika lastmodeller. Förlustkänslighetsfaktorn (LSF) avgör den optimala placeringen av generaldirektoraten. Invasiv ogräsoptimering (IWO) är en populationsbaserad meta-heuristisk algoritm baserad på ogräsets beteende. Denna algoritm används för att hitta optimal dimensionering av generaldirektoraten. Den föreslagna metoden har testats för olika lastmodeller på IEEE-33-buss- och 69-bussradialdistributionssystem. Denna metod har jämförts med andra naturinspirerade optimeringsmetoder. De simulerade resultaten illustrerar den föreslagna metodens goda tillämplighet och prestanda.
Flera GD placeringar under olika belastningsmodeller med hjälp av invasiva ogräsoptimeringsalgoritm föreslogs REF.
106,649,543
Optimal placement and sizing of multiple distributed generating units in distribution networks by invasive weed optimization algorithm
{'venue': None, 'journal': 'Ain Shams Engineering Journal', 'mag_field_of_study': ['Engineering']}
82,313
Vi anser att ett dynamiskt flerkanalsåtkomstproblem, där flera korrelerade kanaler följer en okänd gemensam Markov-modell och användare väljer kanalen för att överföra data. Målet är att hitta en politik som maximerar det förväntade långsiktiga antalet framgångsrika sändningar. Problemet formuleras som en delvis observerbar Markov beslutsprocess med okänd systemdynamik. För att övervinna utmaningarna med okänd dynamik och oöverkomlig beräkning tillämpar vi konceptet att förstärka lärandet och implementera ett djupt Q-nätverk (DQN). Vi studerar först den optimala policyn för fixpattern-kanalbyte med känd systemdynamik och visar genom simuleringar att DQN kan uppnå samma optimala prestanda utan att känna till systemstatistiken. Vi jämför sedan DQN:s prestanda med en Myopic policy och en Whittle Index-baserad heuristisk genom både mer allmänna simuleringar och verkliga dataspår och visar att DQN uppnår nära optimal prestanda i mer komplexa situationer. Slutligen föreslår vi en adaptiv DQN-strategi med förmåga att anpassa sitt lärande i tidsvarierande scenarier.
I REF formuleras DSA-problemet som en delvis observerbar Markov-beslutsprocess (POMDP) med okänd systemdynamik.
3,443,271
Deep Reinforcement Learning for Dynamic Multichannel Access in Wireless Networks
{'venue': 'IEEE Transactions on Cognitive Communications and Networking', 'journal': 'IEEE Transactions on Cognitive Communications and Networking', 'mag_field_of_study': ['Computer Science']}
82,314
Stor efterfrågan på beräkningsresurser hindrar i hög grad utbyggnaden av storskaliga Deep Neural Networks (DNN) i resursbegränsade enheter. I detta arbete föreslår vi en strukturerad sparsity Learning (SSL) metod för att reglera strukturer (dvs. filter, kanaler, filter former, och lagerdjup) av DNNs. SSL kan: (1) lära sig en kompakt struktur från en större DNN för att minska beräkningskostnaderna; (2) få en hårdvaruvänlig strukturerad sparhet av DNN för att effektivt påskynda DNN: s utvärdering. Experimentella resultat visar att SSL uppnår i genomsnitt 5,1× och 3,1× speedups av convolutional lagerberäkning av AlexNet mot CPU respektive GPU, med off-the-shelf bibliotek. Dessa uppfarter är ungefär dubbelt så snabba som de icke-strukturerade glesheterna; (3) regularisera DNN-strukturen för att förbättra klassificeringsnoggrannheten. Resultaten visar att för CIFAR-10 kan legalisering på lagerdjup minska 20 lager av ett Deep Residual Network (ResNet) till 18 lager samtidigt som noggrannheten förbättras från 91,25 % till 92,60 %, vilket fortfarande är något högre än för original ResNet med 32 lager. För AlexNet minskar strukturregleringen genom SSL också felet med 1%. Vår källkod finns på https://github.com/wenwei202/caffe/tree/scnn
Konceptet utvidgas även till Convolutional Neural Network in Structured Sparsity Learning REF.
2,056,019
Learning Structured Sparsity in Deep Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,315
Abstrakt. Många nya routingprotokoll har föreslagits för trådlösa sensornätverk under de senaste åren. Nästan alla routingprotokoll anses energieffektivitet som det yttersta målet eftersom energi är en mycket knapp resurs för sensornoder. Men introduktionen av bildsensorer har inneburit ytterligare utmaningar. Överföring av bilddata kräver både energi- och QoS-medveten routing för att säkerställa effektiv användning av sensorerna och effektiv tillgång till de insamlade mätningarna. I detta dokument föreslår vi ett energi-medvetet QoS routing protokoll för sensornätverk som också kan köras effektivt med bästa-ansträngning trafik. Protokollet finner en minst kostnad, försenad väg för realtidsdata i termer av länkkostnad som fångar nodernas energireserv, överföringsenergi, felfrekvens och andra kommunikationsparametrar. Dessutom maximeras genomströmningen för icke-realtidsdata genom att servicefrekvensen justeras för både realtids- och icke-realtidsdata vid sensornoder. En sådan justering av servicenivån görs med hjälp av två olika mekanismer. Simuleringsresultat har visat effektiviteten i vårt tillvägagångssätt för olika mätvärden med avseende på referensmetoden där samma länkkostnadsfunktion används utan någon mekanism för att differentiera tjänsterna.
QoS-aware-protokollet som föreslås i REF implementerar ett prioriterat system som klassificerar nätverkstrafiken i realtid och icke-realtid.
670,285
Energy and QoS Aware Routing in Wireless Sensor Networks
{'venue': 'Cluster Computing', 'journal': 'Cluster Computing', 'mag_field_of_study': ['Computer Science']}
82,316
Deep Neural Networks (DNN) är kraftfulla modeller som har uppnått utmärkta resultat på svåra inlärningsuppgifter. Även om DNN fungerar bra när stora märkta träningsset finns tillgängliga, kan de inte användas för att kartlägga sekvenser till sekvenser. I detta dokument presenterar vi en allmän end-to-end strategi för sekvensinlärning som gör minimala antaganden om sekvensstrukturen. Vår metod använder en flerskiktad Long Short-Term Memory (LSTM) för att kartlägga indatasekvensen till en vektor av en fast dimensionalitet, och sedan ytterligare en djup LSTM för att avkoda målsekvensen från vektorn. Vårt huvudsakliga resultat är att på en engelsk till fransk översättning uppgift från WMT-14 dataset, de översättningar som produceras av LSTM uppnå en BLEU-poäng på 34.8 på hela testet, där LSTM: s BLEU-poäng straffades på out-of-vokabulary ord. Dessutom hade LSTM inga svårigheter med långa meningar. Som jämförelse uppnår ett frasbaserat SMT-system en BLEU-poäng på 33,3 på samma datauppsättning. När vi använde LSTM för att omvärdera de 1000 hypoteser som producerades av det tidigare nämnda SMT-systemet, ökar BLEU-poängen till 36,5, vilket är nära den senaste tekniken. LSTM lärde sig också förnuftiga uttryck och meningsrepresentationer som är känsliga för ordordning och är relativt invarianta för den aktiva och passiva rösten. Slutligen fann vi att vända ordningen av orden i alla käll meningar (men inte mål meningar) förbättrade LSTM: s prestanda markant, eftersom det införde så många kortsiktiga beroenden mellan källan och mål mening som gjorde optimeringsproblemet lättare.
Forskning om end-to-end öppen domän dialog generation uppmuntras av framgången för neurala sekvens-till-sekvens modeller på maskinöversättning REF.
7,961,699
Sequence to Sequence Learning with Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,317
Människor som lär sig nya koncept kan ofta generalisera framgångsrikt från bara ett enda exempel, men maskininlärning algoritmer kräver vanligtvis tiotals eller hundratals exempel för att utföra med liknande noggrannhet. Människor kan också använda lärda begrepp på rikare sätt än konventionella algoritmer-för handling, fantasi, och förklaring. Vi presenterar en beräkningsmodell som fångar dessa mänskliga inlärningsförmågor för en stor klass av enkla visuella begrepp: handskrivna tecken från världens alfabet. Modellen representerar begrepp som enkla program som bäst förklarar observerade exempel under ett Bayesiskt kriterium. När det gäller en utmanande end-shot-klassificeringsuppgift uppnår modellen prestanda på mänsklig nivå samtidigt som den presterar bättre än den senaste tidens metoder för djupinlärning. Vi presenterar också flera "visuella Turing tester" som undersöker modellens kreativa generalisering förmågor, som i många fall är oskiljaktiga från mänskligt beteende. D espite anmärkningsvärda framsteg inom artificiell intelligens och maskininlärning, två aspekter av mänsklig konceptuell kunskap har undvikit maskinsystem. För det första, för de flesta intressanta typer av naturliga och konstgjorda kategorier, kan människor lära sig ett nytt koncept från bara en eller en handfull exempel, medan standardalgoritmer i maskininlärning kräver tiotals eller hundratals exempel för att utföra på liknande sätt. Till exempel kan människor bara behöva se ett exempel på ett nytt tvåhjuligt fordon (Fig. 1A ) för att förstå gränserna för det nya konceptet, och även barn kan göra meningsfulla generaliseringar via "en-shot lärande" (1-3). Däremot är många av de ledande strategierna inom maskininlärning också de mest datahungriga, särskilt "djupt lärande" modeller som har uppnått nya prestandanivåer på objekt- och taligenkänningsriktmärken (4-9). För det andra, människor lär sig rikare representationer än maskiner gör, även för enkla begrepp (Fig. 1B), använda dem för ett bredare utbud av funktioner, inklusive (Fig. 1 ii) skapa nya exemplar (10), (Fig. 1, iii) tolka objekt i delar och relationer (11), och (Fig. 1 iv) Skapa nya abstrakta kategorier av objekt baserade på befintliga kategorier (12, 13). Däremot utför de bästa maskinklassificeringarna inte dessa ytterligare funktioner, som sällan studeras och vanligtvis kräver specialiserade algoritmer. En central utmaning är att förklara dessa två aspekter av konceptinlärning på mänsklig nivå: Hur lär sig människor nya begrepp av bara ett eller några exempel? Och hur kan människor lära sig sådana abstrakta, rika och flexibla framställningar? En ännu större utmaning uppstår när man sätter ihop dem: Hur kan inlärning lyckas med sådana glesa data men ändå också frambringa sådana rika representationer? För alla teorier om
Få bilder på att lära sig. Få-shot lärande syftar till att lära sig en ny uppgift med mycket få exempel REF.
11,790,493
Human-level concept learning through probabilistic program induction
{'venue': 'Science', 'journal': 'Science', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,318
De olympiska spelen är ett viktigt idrottsevenemang med betydande konsekvenser för det allmänna ekonomiska landskapet i värdstaden. Traditionella ekonomiska bedömningar fokuserar på den samlade effekten av händelsen på nationalinkomsten, men misslyckas med att ge mikroskaliga insikter om varför lokala företag kommer att dra nytta av den ökade verksamheten under spelen. I detta dokument ger vi ett nytt tillvägagångssätt för att modellera de olympiska spelens inverkan på lokala återförsäljare genom att analysera ett dataset som utvunnits från en stor platsbaserad socialtjänst, Foursquare. Vi antar att den rumsliga positioneringen av företag samt rörlighet trender för besökare är primära indikatorer på om återförsäljare kommer att öka sin popularitet under evenemanget. För att bekräfta detta formulerar vi en prediktionsuppgift för detaljhandeln inom vilken vi utvärderar en uppsättning geografiska och mobilitetsmått. Vi finner att närheten till arenor, mångfalden av aktivitet i grannskapet, det närliggande området sällskaplighet, liksom sannolikheten för kundflöden från och till evenemang platser som arenor och parker är alla viktiga faktorer. Genom övervakad inlärningsteknik visar vi att företagens framgång är beroende av en kombination av både geografiska faktorer och mobilitetsfaktorer. Våra resultat tyder på att lokaliseringsbaserade sociala nätverk, där crowdsourced information om den dynamiska interaktionen mellan användare och urbana utrymmen blir allmänt tillgänglig, utgör ett alternativt medium för att bedöma de ekonomiska effekterna av storskaliga händelser i en stad.
Liknande teknik användes i REF, där målet var att modellera effekterna av olympiska spel på lokala återförsäljare.
13,063,963
Where Businesses Thrive: Predicting the Impact of the Olympic Games on Local Retailers through Location-based Services Data
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics']}
82,319