src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Detta brev presenterar våra initiala resultat i djup inlärning för kanaluppskattning och signaldetektering i ortogonala frekvensdivision multiplexing (OFDM) system. I detta brev utnyttjar vi djupt lärande för att hantera trådlösa OFDM-kanaler på ett end-to-end-sätt. Andra än befintliga ODM-mottagare som först uppskattar kanaltillståndsinformation (CSI) explicit och sedan detekterar/återfinner de överförda symbolerna med hjälp av den uppskattade CSI, uppskattar den föreslagna djupt lärandebaserade metoden CSI implicit och återvinner de överförda symbolerna direkt. För att ta itu med kanalsnedvridning tränas först en modell för djupinlärning offline med hjälp av data som genererats från simulering baserad på kanalstatistik och som sedan används för att direkt återvinna data som överförs online. Med hjälp av våra simuleringsresultat kan det djupinlärningsbaserade tillvägagångssättet hantera kanalförvrängning och upptäcka överförda symboler med prestanda jämförbar med den minsta skattningen av medel-kvadratfel. Dessutom är den djupa inlärningsbaserade metoden mer robust än konventionella metoder när färre utbildningspiloter används, det cykliska prefixet utelämnas och ickelinjära clippingbuller finns. Sammanfattningsvis är djupinlärning ett lovande verktyg för kanaluppskattning och signaldetektering i trådlös kommunikation med komplicerad kanalsnedvridning och störning.
- Ja, det är jag. REF visade hur DL kan användas för kanaluppskattning och signaldetektering i OFDM-system.
3,412,710
Power of Deep Learning for Channel Estimation and Signal Detection in OFDM Systems
{'venue': 'IEEE Wireless Communications Letters', 'journal': 'IEEE Wireless Communications Letters', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,814
Frågan om hur den mänskliga hjärnan representerar begreppsmässig kunskap har diskuterats inom många vetenskapliga områden. Hjärnavbildningsstudier har visat att olika rumsliga mönster av neural aktivering är förknippade med tänkande på olika semantiska kategorier av bilder och ord (till exempel verktyg, byggnader och djur). Vi presenterar en beräkningsmodell som förutsäger den funktionella magnetiska resonanstomografin (fMRI) neural aktivering i samband med ord för vilka fMRI-data ännu inte är tillgängliga. Denna modell är tränad med en kombination av data från en biljon-ord text corpus och observerade fMRI data i samband med visning flera dussin konkreta substantiv. När modellen väl har tränats förutsäger den fMRI-aktivering för tusentals andra konkreta substantiv i textkorpus, med mycket betydande noggrannheter över de 60 substantiv för vilka vi för närvarande har fMRI-data. Han ifrågasätter hur den mänskliga hjärnan representerar och organiserar begreppskunskap har studerats av många vetenskapliga samfund. Neuroforskare med hjälp av studier av hjärntomografi (1-9) har visat att distinkta rumsliga mönster av fMRI-aktivitet är förknippade med visning av bilder av vissa semantiska kategorier, inklusive verktyg, byggnader och djur. Lingvister har karakteriserat olika semantiska roller förknippade med individuella verb, liksom de typer av substantiv som kan fylla dessa semantiska roller [t.ex. VerbNet (10) och WordNet (11, 12)]. Beräkningslingvister har analyserat statistiken över mycket stora textkorporer och har visat att ett ords betydelse till viss del fångas av fördelningen av ord och fraser med vilka det vanligen förekommer (13-17). Psykologer har studerat ordbetydelse genom studier av egenskaper (18) där deltagarna uppmanas att lista de egenskaper som de förknippar med olika ord, avslöja en konsekvent uppsättning av kärnegenskaper mellan individer och föreslå en möjlig gruppering av egenskaper genom sensoriska-motoriska metoder. Forskare som studerar semantiska effekter av hjärnskador har funnit brister som är specifika för givna semantiska kategorier (t.ex. djur) (19) (20) (21). Denna variation av experimentella resultat har lett till konkurrerande teorier om hur hjärnan kodar betydelser av ord och kunskap om objekt, inklusive teorier om att betydelser är kodade i sensoriska motoriska kortikala områden (22, 23) och teorier att de istället organiseras av semantiska kategorier såsom levande och icke-levande objekt (18, 24). Även om dessa konkurrerande teorier ibland leder till olika förutsägelser (t.ex., av vilka namngivande funktionsnedsättningar kommer co-occur hos hjärnskadade patienter), de är främst beskrivande teorier som inte gör något försök att förutsäga den specifika hjärnaktivering som kommer att produceras när ett mänskligt ämne läser ett visst ord eller ser en ritning av ett visst objekt. Vi presenterar en beräkningsmodell som gör direkt testerbara förutsägelser om fMRI-aktiviteten i samband med att tänka på godtyckliga konkreta substantiv, inklusive många substantiv för vilka inga fMRI-data för närvarande finns tillgängliga. Teorin bakom denna beräkningsmodell är att den neurala basen av den semantiska representationen av konkreta substantiv är relaterad till de fördelningsmässiga egenskaperna hos dessa ord i en brett baserad corpus av språket. Vi beskriver experiment utbildning konkurrerande beräkningsmodeller baserade på olika antaganden om de underliggande egenskaper som används i hjärnan för kodning av betydelsen av konkreta objekt. Vi presenterar experimentella bevis som visar att det bästa av dessa modeller förutspår fMRI neural aktivitet tillräckligt väl att det framgångsrikt kan matcha ord det ännu inte har stött på sina tidigare osynliga fMRI-bilder, med noggrannheter långt över de förväntade av en slump. Dessa resultat etablerar en direkt, prediktiv relation mellan statistiken över ordet co-occurrence i text och neural aktivering i samband med tänkande om ordbetydelser. Närma er. Vi använder en tränad beräkningsmodell som förutsäger den neurala aktiveringen för varje given stimulansord w med hjälp av en tvåstegsprocess, illustrerad i bild. 1................................................................ Med tanke på en godtycklig stimulans ord w, det första steget kodar betydelsen av w som en vektor för mellanliggande semantiska funktioner som beräknas från förekomsten av stimulans ord w i en mycket stor text corpus (25) som fångar den typiska användningen av ord i engelsk text. Till exempel, en mellanliggande semantisk funktion kan vara den frekvens med vilken w co-occurs med verbet "hör". Det andra steget förutsäger den neurala fMRI aktiveringen på varje voxel plats i hjärnan, som en viktad summa av neurala aktiveringar bidrog med var och en av de mellanliggande semantiska funktioner. Mer exakt, den förutsagda aktiveringen y v vid voxel v i hjärnan för word w ges av var f i (w) är värdet av den ith mellanliggande semantiska funktionen för word w, n är antalet semantiska funktioner i modellen, och c vi är en lärd skalar parameter som anger i vilken grad den ith mellanliggande semantiska funktionen aktiverar voxel v. Denna ekvation kan tolkas som att förutsäga den fullständiga fMRI-avbildningen över alla voxlar för stimulans ord w som en viktad summa av bilder, en per semantisk funktion f i. Dessa semantiska funktionsbilder, som definieras av de inlärda c vi, utgör en grunduppsättning av komponentbilder som modellerar hjärnaktiveringen i samband med olika semantiska komponenter i indatastimulansorden.
Mitchell och Al. introducerade en ny metod för att förutsäga de hjärnaktiviteter som är förknippade med betydelsen av substantiv REF.
6,105,164
Predicting human brain activity associated with the meanings of nouns
{'venue': 'Science', 'journal': None, 'mag_field_of_study': ['Medicine', 'Computer Science']}
81,815
Åtgärdsförväntningar syftar till att upptäcka en åtgärd innan den inträffar. Många verkliga tillämpningar inom robotik och övervakning är relaterade till denna prediktiva förmåga. Nuvarande metoder tar itu med detta problem genom att först förutse visuella representationer av framtida ramar och sedan kategorisera de förväntade representationerna till åtgärder. Men förväntan bygger på en enda tidigare ram representation, som ignorerar den historiska trenden. Dessutom kan den bara förutse en bestämd framtid. Vi föreslår ett nätverk av förstärkta kodare (RED) för att föregripa åtgärder. RED tar flera historiska representationer som ingång och lär sig att förutse en sekvens av framtida representationer. En framträdande aspekt av RED är att en förstärkning modul antas för att ge sekvensnivå övervakning; belöningsfunktionen är utformad för att uppmuntra systemet att göra korrekta förutsägelser så tidigt som möjligt. Vi testar RED på TVSeries, THUMOS-14 och TV-Human-interaction dataset för att förutse åtgärder och uppnå toppmodern prestanda på alla datauppsättningar.
Gao m.fl. I REF föreslås ett nätverk av förstärkta kodare (RED) för att föregripa åtgärder, som använder sig av förstärkt inlärning för att uppmuntra modellen att göra de korrekta förväntningarna så tidigt som möjligt.
41,037,339
RED: Reinforced Encoder-Decoder Networks for Action Anticipation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,816
Utveckling av självanpassad programvara kräver konstruktion av en anpassningsmotor som styr den underliggande anpassningsbara programvaran genom återkopplingsslingor. Motorn beskriver ofta anpassningen genom körtidsmodeller som representerar den anpassningsbara programvaran och genom aktiviteter som analys och planering som använder dessa modeller. För att systematiskt ta itu med samspelet mellan runtime-modeller och anpassningsaktiviteter har megamodeller för runtime föreslagits. En runtime megamodel är en specifik modell som fångar upp runtime-modeller och anpassningsaktiviteter. I den här artikeln går vi ett steg längre och presenterar ett körbart modelleringsspråk för ExecUtable RuntimE MegAmodeller (EUREMA) som underlättar utvecklingen av anpassningsmotorer genom att följa en modelldriven ingenjörsstrategi. Vi tillhandahåller ett domänspecifikt modelleringsspråk och en körtidstolk för anpassningsmotorer, särskilt återkopplingsslingor. Megamodeller hålls vid liv på runtime och genom att tolka dem utförs de direkt för att köra feedback loopar. Dessutom kan de anpassas dynamiskt för att anpassa återkopplingsslingor. Därför stöder EUREMA utvecklingen genom att göra återkopplingsslingor explicita på en högre abstraktionsnivå och det möjliggör lösningar där flera återkopplingsslingor interagerar eller fungerar ovanpå varandra och självanpassning samexisterar med off-line anpassning för evolution.
EUEMA REF-ramverket stöder utformning och anpassning av självanpassade system som kan omfatta flera återkopplingsslingor.
14,645,790
Model-Driven Engineering of Self-Adaptive Software with EUREMA
{'venue': 'In: ACM Trans. Auton. Adapt. Syst. 8.4 (2014), 18:1-18:33', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,817
XQuery är inte bara användbart för att fråga XML i databaser, men också för program som måste behandla XML-dokument som filer eller strömmar. Dessa applikationer lider av begränsningarna för nuvarande huvudminne XQuery processorer som bryter för ganska små dokument. I detta dokument föreslår vi tekniker, baserade på ett begrepp av projektion för XML, som kan användas för att drastiskt minska minneskrav i XQuery processorer. Det viktigaste bidraget från papperet är en statisk analysteknik som kan identifiera vid kompileringstidpunkten vilka delar av inmatningsdokumentet som behövs för att svara på en godtycklig XQuery. Vi presenterar en laddningsalgoritm som tar den resulterande informationen för att bygga ett projicerat dokument, som är mindre än det ursprungliga dokumentet, och där frågan ger samma resultat. Vi implementerade projektion i Galax XQuery-processorn. Våra experiment visar att projektionen minskar minnesbehovet med en faktor på i genomsnitt 20 och är effektiv för en mängd olika frågor. Dessutom resulterar projektionen i viss snabbhet under frågeutvärderingen.
Ett tillvägagångssätt för att minska minneskraven har implementerats i Galax XQuery processorn REF.
8,131,684
Projecting XML Documents
{'venue': 'VLDB', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,818
Att lära sig rika och olika representationer är avgörande för prestandan hos djupa konvolutionella neurala nätverk (CNN). I detta dokument överväger vi hur man kan använda privilegierad information för att främja den inneboende mångfalden i en enda CNN-modell så att modellen kan lära sig bättre representationer och erbjuda en starkare generaliseringsförmåga. I detta syfte föreslår vi en ny grupp ortogonala konvolutionella neurala nätverk (GoCNN) som lär sig lösa representationer inom varje skikt genom att utnyttja den privilegierade informationen och förbättra representationsmångfalden effektivt. Vi tar bildklassificering som ett exempel där bildsegmentering annoteras som privilegierad information under utbildningsprocessen. Experiment på två referensdataset -ImageNet och PASCAL VOC - visar tydligt den starka generaliseringsförmågan hos vår föreslagna GoCNN-modell. På ImageNet-datasetet förbättrar GoCNN prestandan hos den senaste ResNet-152-modellen med ett absolut värde på 1,2 % medan man endast använder privilegierad information på 10 % av utbildningsbilderna, vilket bekräftar GoCNN:s effektivitet när det gäller att utnyttja tillgänglig privilegierad kunskap för att utbilda bättre CNN.
Grupp Orthogonala neurala nätverk REF följer detta tillvägagångssätt.
2,135,797
Training Group Orthogonal Neural Networks with Privileged Information
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,819
För att utföra okonstruerad ansiktsigenkänning robust för variationer i belysning, pose och uttryck presenterar detta dokument ett nytt system för att extrahera "Multi-Directional Multi-Level Dual-Cross Mönster" (MDML-DCP) från ansiktsbilder. Särskilt MDML-DCPs systemet utnyttjar den första derivatan av Gaussian operatör för att minska effekten av skillnader i belysning och sedan beräkna DCP-funktionen på både holistiska och komponentnivåer. DCP är en ny ansiktsbildsbeskrivning inspirerad av den unika texturala strukturen hos mänskliga ansikten. Det är beräkningseffektivt och fördubblar bara kostnaden för att beräkna lokala binära mönster, men är ändå extremt robust att posera och uttrycka variationer. MDML-DCPs kodar utförligt men effektivt in de invarianta egenskaperna hos en ansiktsbild från flera nivåer till mönster som är mycket diskriminerande för inter-personliga skillnader men robusta för intra-personliga variationer. Experimentella resultat från FERET, CAS-PERL-R1, FRGC 2.0 och LFW-databaser tyder på att DCP överträffar de senaste lokala deskriptorerna (t.ex. LBP, LTP, LPQ, POEM och LGXP) för både ansiktsidentifiering och ansiktsverifiering. Mer imponerande, den bästa prestandan uppnås på utmanande LFW och FRGC 2.0 databaser genom att distribuera MDML-DCPs i ett enkelt erkännande system.
Ding m.fl. introducerade flerriktad multi-level dual-cross mönster (MDML-DCP) för ansiktsbilder REF.
13,209,451
Multi-Directional Multi-Level Dual-Cross Patterns for Robust Face Recognition
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Medicine']}
81,820
Vi introducerar koncentrerad differential integritet, en avkoppling av differential integritet åtnjuter bättre noggrannhet än både ren differential integritet och dess populära "(ε, δ)" avkoppling utan att kompromissa på kumulativ integritet förlust över flera beräkningar. I den grundläggande lagen om informationsåtervinning anges informellt att "mycket korrekta" uppskattningar av "för många" statistik helt förstör integriteten ([DN03] et sequelae). Differentiell integritet är en matematiskt strikt definition av integritet skräddarsydd för analys av stora datamängder och utrustad med ett formellt mått på integritet förlust [DMNS06, Dwo06]. Dessutom tar olika privata algoritmer som indata en parameter, vanligtvis kallad ε, som täcker den tillåtna integritetsförlusten i varje utförande av algoritmen och erbjuder en konkret integritet / användbarhet kompromiss. En av de starka sidorna av differential integritet är förmågan att resonera om kumulativ integritet förlust över flera analyser, med tanke på de värden för ε som används i varje enskild analys. Genom lämpligt val av ε är det möjligt att hålla sig inom ramen för grundlagen samtidigt släppa ett visst antal uppskattad statistik, men innan detta arbete var gränserna inte snäva. Ungefär, differential integritet säkerställer att resultatet av en analys på en databas x distribueras mycket på samma sätt som resultatet på varje angränsande databas y som skiljer sig från x i bara en rad (Definition 2.3). Det vill säga, differentialt privata algoritmer är randomiserade, och i synnerhet den maximala skillnaden mellan dessa två fördelningar (en sort maximal log odds ratio för alla händelser, se definition 2.2 nedan) begränsas av sekretessparametern ε. Denna absoluta garanti på maximal integritet förlust kallas nu ibland "ren" differential integritet. En populär avkoppling, (ε, ε)-differentiell integritet (Definition 2.4) [DKM + 06], garanterar att med sannolikhet högst 1 − δ integritetsförlusten inte överstiger ε. 1 Vanligtvis δ anses vara "kryptografiskt" liten, det vill säga mindre än inversen av någon polynom i storleken på datasetet, och ren differential integritet är helt enkelt det speciella fall där δ = 0. Avkopplingen tillåter ofta asymptotiskt bättre noggrannhet än ren differential integritet för samma värde av ε, även när δ är mycket liten. Vad händer i fallet med flera analyser? Även om sammansättningen av k (ε, 0)-differentiellt integritetsalgoritmer är som värst (kε, 0)-differentiellt privat, är den också samtidigt ( 2k ln(1/ε)ε+ kε(e ε − 1), δ)-differentiellt privat för varje δ [DRV10]. Låt oss dekonstruera uttalandet om detta resultat. För det första är integritetsförlust en slumpmässig variabel som fångar upp skillnader i sannolikhetsfördelningar som erhålls när en randomiserad algoritm M körs på x i motsats till angränsande databas y (se avsnitt 2.1). I allmänhet, om den maximala skillnaden mellan två fördelningar begränsas av ε 1 Observera att sannolikheten är över mynten i den algoritm som utför analysen. Ovanstående formulering är inte omedelbar från definitionen av (ε, ε)-differentiell integritet, detta bevisades i den fullständiga versionen av [DRV10]. 1 sedan deras KL-divergens (Definition 2.1) begränsas av ε(e ε − 1). Detta innebär att den förväntade integritetsförlusten för en enskild (ε, 0)-differentierad privat beräkning begränsas av ε(e ε − 1). Genom linjäritet i förväntan begränsas den förväntade förlusten över k (ε, 0)-differentiellt privata algoritmer av kε(e ε − 1). Påståendet säger därför att den kumulativa integritetsförlusten slumpmässiga variabeln över k beräkningar är starkt koncentrerad om dess medelvärde: sannolikheten för integritetsförlust som överstiger dess förväntningar genom t ε kε faller exponentiellt i t 2 /2 för alla t ≥ 0. Vi kommer att återkomma till denna formulering för närvarande. Mer allmänt visar vi följande avancerade sammansättning teorem, som förbättrar sammansättningen teorem av Dwork, Rothblum, och Vadhan [DRV10] genom att exakt halvera gränsen för förväntad integritet förlust av (ε, 0)-differentiellt integritetsmekanismer (beviset är annars identisk). Närmare uppgifter om den skarpare gränsen finns i avsnitt 3.2. Teorin 1.1. För alla ε, ε, ε′ ≥ 0, uppfyller klassen (ε, ε′)-differentiellt privata mekanismer (2k ln(1/δ)ε + kε(e ε − 1)/2, kδ ′ + δ)-differentiell integritet under k-faldig adaptiv sammansättning. Som theorem visar (återkalla att δ ′ vanligtvis anses vara "sub-polynomiellt liten"), de rena och avslappnade former av differential integritet beter sig ganska på samma sätt under sammansättning. För den mycket viktiga klassen att räkna frågor ("Hur många människor i datauppsättningen uppfyller egenskapen P?") Teorem 1.1 leder till noggrannhetsgränser som skiljer sig från de gränser som införs av (en omedelbar ändring av) grundlagen av en faktor på ungefär 2 log(1/δ). 2 Nyligen, snäva gränser för sammansättningen av (ε, δ)-differentiellt privata algoritmer har getts i [KOV15, MV16] (se nedan). En ny avkoppling. I detta arbete introducerar vi en annan avkoppling, Koncentrerad differentiell integritet (CDP), ojämförlig med (ε, δ)-differentiell integritet men återigen har samma beteende under sammansättning. Koncentrerad differential integritet är närmare "varje δ" egenskap i uttalandet av Theorem 1.1: En algoritm erbjuder (μ, τ)-koncentrerad differential integritet om integritetsförlust slumpmässiga variabeln har medel μ och om, efter att ha subtraherat av detta medelvärde, den resulterande (centrerad) slumpmässig variabeln är subgaussian med standard τ. 3 Till följd av detta (se t.ex., [BK00] Lemma 1.3), x > 0: Således säkerställer koncentrerad differential integritet att den förväntade integritetsförlusten är μ och sannolikheten för förlust som överstiger dess medelvärde med x = tτ begränsas av e −t 2/2, ekar formen av den garanti som erbjuds av Advanced Composition Theorem (Theorem 1.1). Tänk på i vilket fall τ = ε. Å ena sidan är (μ, ε)-koncentrerad differentiell integritet klart svagare än (ε, ε)-differentiell integritet, eftersom även om den förväntade förlusten μ är mycket liten, sannolikheten för integritetsförlust som överstiger ε i den förra kan vara konstant i den förra men är bara δ, som är liten, i den senare. Å andra sidan, i (ε, ε)-differentiell integritet finns det ingen bunden på den förväntade integritetsförlusten, eftersom med sannolikhet alla satsningar är avstängda och förlusten kan vara oändlig. Koncentrerad differentiell integritet har två fördelar jämfört med (ε, ε)-differentiell integritet. • Förbättrad noggrannhet. Koncentrerad differential integritet är skräddarsydd för (realistiska!) fallet med ett stort antal beräkningar. Traditionellt sett, för att säkerställa liten kumulativ förlust med hög sannolikhet, är den tillåtna förlusten för varje enskild fråga satt mycket låg, säger ε ′ = ε (log 1/δ) / k, även om en integritetsförlust av, låt oss säga, ε/10 eller ens ε sig själv kanske inte är av stor betydelse för någon enskild fråga. Detta är just den flexibilitet som vi ger i den koncentrerade differentiella integriteten: mycket mindre oro för förlust av en enda fordran, men med stor sannolikhet gräns för kumulativ förlust. Sammansättningen av k (μ, τ )-koncentrerade differential integritetsmekanismer är (kμ, ε kτ )-koncentrerad differential integritet (Theorem 3.4). Ställa in τ = ε får vi en förväntad integritetsförlust av kμ och, för alla t samtidigt, sannolikheten för integritetsförlust som överstiger dess espektation av t ε kε faller exponentiellt i t 2 / 2, precis som vi fick i sammansättningen för de andra varianterna av differential integritet i Theorem 1.1 ovan. Men vi får bättre exakthet. Till exempel, för att hantera n räkna frågor med hjälp av Gaussian mekanismen, kan vi lägga till oberoende slumpmässigt buller från N (0, n/ε 2 ) till varje fråga, uppnå (ε(e ε − 1)/2, ε)-koncentrerad differential integritet (Theorem 3.2) 4. När ε = och 1) buller skalas till O ( ε n); enligt grundlagen är buller o ( ε n) katastrofalt. • Gruppintegritetsgruppens integritet begränsar integritetsförlusten även för ett par databaser som skiljer sig åt i data från en liten grupp av individer; till exempel kan man i en hälsoundersökning inte bara vilja veta att ens egen hälsoinformation förblir privat utan också att informationen om ens familj som helhet är starkt skyddad. Varje (ε, 0)-differentiellt privat algoritm säkerställer automatiskt (sε, 0)-differentiell integritet för alla grupper av storlek s [DMNS06], med den förväntade integritetsförlusten växer med en faktor på omkring s 2. Situationen för (ε, ε)-differentiell integritet är inte riktigt så elegant: litteraturen visar (sε, se-1 δ)-differentiell integritet för grupper av storlek s, en oroande exponentiell ökning av sannolikheten för misslyckande (se-1 δ term). Situationen för koncentrerad differential integritet är mycket bättre: för alla kända naturliga mekanismer med koncentrerad differential integritet får vi snäva gränser. För (hypotetiska) godtyckliga algoritmer som erbjuder subgaussian integritet förlust, visar Theorem 4.1 gränser som är asymptotiskt nästan-tät (tät upp till låg-order termer). Vi misstänker att de snäva gränserna bör hålla för godtyckliga mekanismer, och det skulle vara intressant att överbrygga klyftan. 1. Vad är det för fel på dig? Under vissa villkor, nöjda med alla rena differential integritetsmekanismer 5, och tillägg av Gaussian buller, alla (μ, τ )-koncentrerad differential integritet mekanism uppfyller (s 2 ·μ, s·τ )-koncentrerad differential integritet för grupper av storlek s, vilket är optimalt. 2. Utgångspunkten är följande: Varje ( (1))-koncentrerad differential integritet för grupper av storlek s. Den bundna håller så länge s · τ är tillräckligt liten (ungefär, (1/τ ) bör förbli kvasi-linjär i s). Se Theorem 4.1 för det formella uttalandet. Vi antar också här att μ ≤ τ 2 2. 6 Anmärkning 1.2. Överväga varje mekanism som byggs genom att komponera en samling av "goda" mekanismer som var och en uppfyller villkoren i punkt 1 ovan. För att bevisa att den sammansatta mekanismen har de bra gruppintegritetsgränserna kan vi först tillämpa gruppintegritetsgränserna för de underliggande "bra" mekanismerna, och sedan tillämpa sammansättningen. Det är intressant att dessa två operationer pendlar. 4 För att uppnå (ε, ε)-differentiell integritet lägger man till buller från N (0, 2 ln(1/δ)), vilket ökar den typiska snedvridningen med en faktor av ln(1/δ). 5 Varje (ε, 0)-differentiellt privat mekanism avkastning (ε(e ε −1)/2, ε)-koncentrerad differentiell integritet (Theorem 3.5). 6 Upp till låg-order villkor, denna relation innehar för alla mekanismer vi känner. För andra mekanismer är det möjligt att härleda en mindre elegant allmän bundet, eller τ kan "artificiellt uppblåst" tills detta villkor håller. Täta gränser på förväntade förluster. Som nämnts ovan förbättrar vi med en faktor av två den kända övre gränsen för förväntad integritetsförlust av någon (ε, 0)-differentiellt privat mekanism, vilket avslutar ett gap som öppnats sedan 2010 [DRV10]. Detta översätts omedelbart till en förbättring med en faktor på 2 på nytta / privacy kompromiss i någon tillämpning av Advanced Composition Theorem. Den nya gränsen, som är tight, erhålls genom att först bevisa resultatet för speciella par av probablit fördelningar som vi kallar antipodal (privacy förlust för alla resultat är i {−ε, 0, ε}), och sedan visar en minskning, där ett godtyckligt par distributioner med maximal divergens begränsas av ε -såsom fördelningen på resultaten av en differentialt privat mekanism när körs på databaser x och y skiljer sig i en enda rad - kan "ersätts" av en antipodal par utan ändring i max divergens och ingen minskning i KL-divergens. Anmärkning 1.3. Om alla (ε, 0)-differentiellt privata algoritmer åtnjuter koncentrerad differential integritet, liksom Gaussian-mekanismen, vilka (ε, ε)-differentiellt privata algoritmer utesluts? Alla (ε, ε)-differentiellt privata algoritmer där det finns en viss sannolikhet δ ′ ≤ δ för oändlig integritet förlust. Detta inkluderar många (men inte alla!) algoritmer i ramverket "Propose-Test-Release" [DL09], där ett differentialt privat test först utförs för att kontrollera att datauppsättningen uppfyller vissa "säkerhetsvillkor" och i så fall utförs en operation som endast garanterar integritet om villkoren är uppfyllda. Det kan finnas en liten sannolikhet för misslyckande i det första steget, vilket innebär att testrapporterna om att säkerhetsvillkoren är uppfyllda, men i själva verket inte, i vilket fall integritet kan äventyras i det andra steget. Hårdhet. Optimalitet i integritetsförlust är en överskuggande subtil och svår fråga under sammansättning. Resultat av Kairouz, Oh och Viswanath [KOV15] få snäva gränser under sammansättningen av godtyckliga (en, en)-mekaniker, när alla mekanismer delar samma värden av till och en. Det är, de finner den optimala till ′, δ ′ sådan att sammansättningen av k mekanismer, som var och en är ( till 0, δ 0 )-differentiellt privat, är ( till ′, δ ′ )-differentiellt privat. Det icke-homogena fallet, där ith-mekanismen är i, i )-differentiellt privat, har analyserats av Murtagh och Vadhan [MV16], där det visas att bestämma gränserna för den optimala sammansättningen är svårt för #P. Båda dessa papper använder en analys liknande den som finns i vår Lemma 3.8, som vi fick innan publiceringen av dessa verk. Optimala gränser för sammansättningen av godtyckliga mekanismer är mycket intressanta, men vi är också intresserade av gränser för de specifika mekanismer som vi har i handen och vill använda och analysera. I detta syfte får vi en fullständig karakterisering av integritetsförlusten av Gaussian mekanismen. Vi visar att integritet förlust av sammansättningen av flera tillämpning av Gaussian mekanismen, eventuellt med olika individuella parametrar, är sig en Gaussian slumpmässig variabel, och vi ger exakta gränser för dess medelvärde och varians. Denna karakterisering är inte möjlig med hjälp av ramen för (en, en)-differentiell integritet, den tidigare rådande synen på den Gaussiska mekanismen. Efterföljande arbete. Motiverad av vårt arbete, Bun och Steinke [BS15] föreslår en avslappning av koncentrerad differential integritet. Istället för att sätta in integritetsförlusten som en subgaussisk slumpmässig variabel som vi gör här, de istället rama in frågan i termer av Renyi entropy, få en avslappning av koncentrerad differential integritet som också stöder en liknande komposition teorem. Deras begrepp ger också integritetsgarantier för grupper. Gränserna vi får med hjälp av koncentrerad 4 differential integritet (Theorem 4.1) är hårdare; vi vet inte om detta är inneboende i definitionerna. Avvikelse. Vi kommer att behöva flera olika begrepp om skillnader mellan distributionerna. Vi kommer också att införa ett nytt begrepp, subgaussisk skillnad i avsnitt 3. Definition 2.1 (KL-divergens). KL-divergensen, eller relativ entropi, mellan två slumpmässiga variablerna Y och Z definieras som: där om stödet för Y inte är lika med stödet för Z, då D KL (Y för Z) inte definieras. Definition 2.2 (största avvikelse). Max Divergensen mellan två slumpvariabler Y och Z definieras som: där om stödet för Y inte är lika med stödet för Z, då D ∞ (Y och Z) inte definieras. Den ungefärliga skillnaden mellan Y och Z definieras som: För en given databas d, en (randomized) icke-interaktiv databasåtkomstmekanism M beräknar en utgång M (x) som senare kan användas för att rekonstruera information om d. Vi kommer att ägna oss åt mekanismer M som är privata enligt olika sekretessbegrepp som beskrivs nedan. Vi tänker på en databas x som en multiuppsättning av rader, var och en från ett datauniversum U. Intuitivt innehåller varje rad uppgifter om en enskild individ. Vi kommer ofta att visa en databas av storlek n som en tuple x på U n för några n på N (antalet individer vars data finns i databasen). Vi behandlar n som offentlig information hela tiden. Vi säger databaser x, y är intilliggande om de bara skiljer sig i en rad, vilket innebär att vi kan få en från den andra genom att ta bort en rad och lägga till en annan. Det vill säga. databaser är intilliggande om de är av samma storlek och deras redigeringsavstånd är 1. För att hantera värsta fall par av databaser, våra sannolikheter kommer att vara över de slumpmässiga val som görs av integritetsmekanismen. där sannolikheterna är över algoritm M mynt. Eller alternativt: En randomiserad algoritm M ger (ε, δ)-differentiell integritet om för alla par av angränsande databaser x och y och alla S på Range(M) där sannolikheterna är över myntflips av algoritmen M. Eller alternativt: Privacy Loss som en slumpmässig variabel. Överväg att köra en algoritm M på ett par databaser x, y. För ett resultat o är integritetsförlusten på o den log-ratio av dess sannolikhet när M körs på varje databas: Koncentrerad differential integritet delar mer djupt in i integritetsförlusten slumpmässig variabel: denna real-värderade slumpmässig variabel mäter integritetsförlusten som följer när algoritm M körs på x (i motsats till y). Det provtas genom att ta y på M (x) och ta ut L (o) (M (x) och M (y). Denna slumpmässiga variabel kan ta positiva eller negativa värden. För (ε, 0)-differentiellt privata algoritmer begränsas dess storlek alltid av ε. För (ε, ε)-differentiellt privata algoritmer, med all sannolikhet är magnituden begränsad av ε. Subgaussiska slumpmässiga variabler infördes av Kahane [Kah60]. En subgaussisk slumpmässig variabel är en för vilken det finns ett positivt reellt tal τ > 0 s.t. momentgeneratorfunktionen är alltid mindre än momentgeneratorfunktionen hos en Gaussian med standardavvikelsen τ och förväntan 0. I detta avsnitt går vi kort igenom definitionen och grundläggande lemmata ur litteraturen. Vi säger att X är subgaussian om det finns τ ≥ 0 s.t. X är τ - subgaussian. För en subgaussisk slumpmässig variabel X är den subgaussiska standarden X: Anmärkningar. En omedelbar konsekvens av definition 2.5 är att en τ - subgaussisk slumpmässig variabel har förväntningar 0, och variansen begränsas av τ 2 (se fakta 2.1). Observera också att den gaussianska fördelningen med förväntan 0 och standardavvikelsen σ är σ-subgaussian. Det finns också kända gränser för de högre ögonblicken av subgaussiska slumpmässiga variabler (se fakta 2.2). Se [BK00] och [Riv12] för vidare diskussion. Lemma 2.1 (subgaussisk koncentration). Om X är τ - subgaussian för τ > 0, då: Bevis. För varje λ > 0 och t > 0: där den första jämlikheten uppnås genom att en exponentiell av alla argument, den andra (i)jämlikhet är av Markov, och detta är genom egenskaperna hos subgaussiska slumpmässiga variabeln X. Höger sida minimeras när λ = t/τ, och därmed får vi det: Beviset att Pr[X ≤ −t · τ ] ≤ e −t 2 /2 är liknande. För alla τ - subgaussian random variabel Y, och heltal k, k-th ögonblick begränsas av: Lemma 2.2 (summan av subgaussians). Låt X 1,. ., X k vara (gemensamt fördelade) real-värderade slumpvariabler sådan att för varje i K, och för varje (x 1,. .., x i-1) Supp(X 1,........................................................................................... .., X k-1 ), det håller att den slumpmässiga variabeln ( Bevis. Beviset är genom induktion över k. Basfallet k = 1 är omedelbart. För k > 1, för alla λ på R, har vi: där den sista ojämlikheten är genom induktionshypotesen. Följande tekniska Lemma om produkter av (gemensamt fördelade) slumpvariabler, av vilka en är exponentiell i en subgaussian, kommer att användas i stor utsträckning för att bevisa gruppintegritet: 7 Lemma 2.3 (Förväntad produkt med Exponential i Subgaussian). Låt X och Y fördelas gemensamt slumpvariabler, där Y är τ - Subgaussian för τ ≤ 1/3. Sedan: Bevis. Tar Taylor expansion av e Y vi har: Av Cauchy-Schwartz ojämlikhet: där den sista ojämlikheten använder det faktum att för en τ -subgaussian RV Y, Var (Y ) ≤ τ 2 (Fact 2.1), och att för att binda den sista summan i Ojämlikhet 2, vi använder linjäritet av förväntan och Cauchy-Schwartz: Använda det faktum att för alla τ -subgaussian distribution Y, det 2k-et moment E [Y 2k ] begränsas av 2), Vi drar slutsatsen från det ovan att för τ < 1: Att sätta ihop ojämlikheter (2) (3), (4), drar vi slutsatsen att för τ ≤ 1/2: där nästa till sista ojämlikhet innehar när τ ≤ 1/3, och den sista ojämlikheten beror på 3 Koncentrerad Olika sekretess: Definition och egenskaper Om stöden för Y och Z inte är lika, då integritetsförlust slumpmässiga variabeln inte definieras. Vi studerar integritetsförlusten slumpmässig variabel, med fokus på fallet där denna slumpmässiga variabel är tätt koncentrerad kring sin förväntan. I synnerhet kommer vi att vara intresserade av det fall där integritetsförlusten (förändrad av dess förväntningar) är subgaussian. ) definieras och subgaussian, och dess subgaussian parameter är som mest τ. Om vi har både D subG (Y på Z) (μ, τ ) och D subG (Z på Y ) (μ, τ ), då säger vi att paret slumpmässiga variabler X och Y är (μ, τ )-subgaussian-oskiljbara. Bevis. Följer av definition 3.3 och koncentrationsegenskaperna hos subgaussiska slumpvariabler (Lemma 2.1). Guassian Mechanism återuppväcktes. Vi ser över Gaussian buller mekanism [DMNS06], vilket ger en snäv karakterisering av integritet förlust slumpmässig variabel. Därefter Gaussian mekanism med brus magnitud σ är (τ 2 /2, τ )-CDP, där τ = och (f )/σ. Senare kommer vi att bevisa (Theorem 3.5) att varje ren differentierad privat mekanism också åtnjuter koncentrerad differentiell integritet. Den Gaussiska mekanismen är annorlunda, eftersom den endast garanterar (ε, ε)-differentierad integritet för δ > 0. av Theorem 3.2. Låt M vara Gaussian mekanism med buller magnitud σ. Låt d, d ′ vara angränsande databaser, och anta w.l.o.g att f (d) = f (d ′ ) + tillf. Vi undersöker integritetsförlust slumpmässiga variabel som erhållits genom att dra en brus magnitud x på N (0, σ 2 ) och utdata: Eftersom x på N (0, σ 2 ), drar vi slutsatsen att fördelningen av integritetsförlust slumpmässiga variabeln L (U och V ) är också Gaussian, med förväntan 2 / 2, och standardavvikelsen. Att ta τ = skaf /σ, Som noterats i inledningen, är det en följd av Theorem 3.2 att vi kan uppnå (ε(e ε − 1)/2, ε)-koncentrerad differentiell integritet genom att lägga till oberoende slumpmässiga buller dras från N (0, n/ε 2 ) till varje fråga. Om vi ytterligare koppla av till (ε, ε)-cdp, kan vi lägga till ännu mindre buller, magnitud ( 1/ε). Detta skulle vara meningsfullt i miljöer där vi förväntar oss ytterligare sammansättning, och så att vi kan fokusera på den förväntade integritetsförlusten (begränsa den med ε) och tillåta mer slapphet i standardavvikelsen. För små ε ger detta ytterligare en storleksordningsförbättring av den snedvridning som införts för att skydda privatlivet. Slutligen observerar vi att gränserna för grupp koncentrerad differential integritet Gaussian mekanismen följer omedelbart från Theorem 3.2, notera att för en grupp av storlek s gruppen känslighet för en funktion f är som mest s · f. Samband 3.3 (grupp CDP för Gaussian Mechanism). Den Gaussiska mekanismen med buller magnitud σ uppfyller ((s)f /σ) 2 /2, s tillf )-koncentrerad differential integritet. Koncentrerad differential integritet komponerar "samt" standard differential integritet. En av CDP:s främsta fördelar är att det möjliggör större noggrannhet och mindre buller, vilket i huvudsak inte innebär någon förlust av privatlivet under sammansättningen. I detta avsnitt bevisar vi dessa kompositionsegenskaper. Vi följer formaliseringen i [DRV10] i modellering sammansättning. Sammansättning omfattar både upprepad användning av (olika) CDP-algoritmer på samma databas, vilket möjliggör moduluppbyggnad av CDP-algoritmer, och upprepad användning av (olika) CDP-algoritmer på olika databaser som kan innehålla information om samma individ. I båda dessa scenarier kan förbättrad noggrannhet hos CDP algoritmer ge större nytta för samma "privacy budget". Sammansättning av k CDP mekanismer (över samma databas, eller olika databaser) formaliseras av en sekvens av par slumpmässiga variabler (U, V ) = ((U (1), V (1) ),. .., (U (k), V (k) ) ). De slumpmässiga variablerna är resultaten av kontradiktoriskt och adaptivt valda CDP mekanismer M 1,. .., M k. I U-sekvensen (verklighet) provtas den slumpmässiga variabeln U (i) genom att köra mekanismen M i på en databas (enligt motståndarens val) som innehåller en individs, säger Bobs, data. I V-sekvensen (alternativ verklighet) provtas den slumpmässiga variabeln V (i) med hjälp av körmekanism M i på samma databas, men där Bobs data ersätts med (motsvarariskt valda) data som tillhör en annan individ, Alice. Kravet är att även för adaptivt och kontradiktoriskt valda mekanismer och databas-par, resultatet av U (Bob-reality) och V (Alice-reality) är "mycket nära", och i synnerhet integritetsförlusten L (U och V ) är subgaussian. I mer detalj, och följande [DRV10], definierar vi ett spel där en återförsäljare vänder ett rättvist mynt att välja mellan symboler U och V, och en motståndare adaptivt väljer en sekvens av par av intilliggande databaser (x U i, x V i ) och en mekanism M i njuta (μ i, τ i )-CDP och som kommer att fungera på antingen vänster element (om dealern valde U ) eller rätt element (om dealern valde V ) av paret, och returnera utdata, för 1 ≤ i ≤ k. Motståndarens val är helt adaptiva och därför kan bero inte bara på godtycklig extern kunskap men också på vad som har observerats i steg 1,.., i − 1. Målet för motståndaren är att maximera integritetsförlusten. Det är inramat som ett spel eftersom stor integritet förlust är förknippad med en ökad förmåga att avgöra vilken av (U, V ) valdes av dealern, och vi föreställer oss att detta är motivation av motståndaren. Teorem 3.4 (Sammanställning av CDP). För varje heltal k på N, varje μ 1,. .., μ k, τ 1........................................................... .., τ k ≥ 0, och konstruerad som i det spel som beskrivs ovan, Vi har att Betrakta de slumpmässiga variabler U och V definieras ovan, och integritet förlust slumpmässig variabel L (U på V ). Denna slumpmässiga variabel erhålls genom att plocka y på U och mata ut ln Mekanismen och datauppsättningar som valts av motståndaren i steg jag beror på motståndarens syn på den tiden. Motståndarens uppfattning omfattar dess slumpmässighet och de resultat som den hittills har observerat. Låta R U och R V betecknar slumpmässigheten i U -världen respektive V - världen, vi har, för alla y = (y 1,. .., y k ) Supp (U) och slumpmässiga sträng r c i (r, y 1,. ......................................................... Nu för varje prefix (r, y 1,. .., y i-1) vi villkor på R U = r, U 1 = y 1,. .., U i‐1 = y i‐1, och analysera den slumpmässiga variabeln c i (R U, U 1,. .., U i ) = c i (r, y 1,. ..,...................................................... När prefixet är fast, nästa par av databaser x U i och x V i och mekanismen M i utdata av advesary bestäms också. Således är U i distribueras enligt M i (x U i ) och för alla värde y i, Vi har är (μ i, τ i ) subgaussian. Genom subgaussiska egenskaper hos de slumpmässiga variablerna C i = c i (r, U (1),. .., U (i) ), har vi att L (U) (U) = i) [k] C i, d.v.s. Den slumpmässiga integritetsförlustvariabeln motsvarar summan av C i:s slumpmässiga variabler. Genom linjäritet i förväntningarna drar vi slutsatsen att: och genom Lemma 2.2 har vi den slumpmässiga variabeln: I detta avsnitt utforskar vi relationen mellan differentiell integritet och koncentrerad differential. Vi visar att alla differentialt privata algoritmer också är koncentrerade differentialt privat. Vårt huvudsakliga bidrag här är en förfinad övre gräns på den förväntade integritetsförlusten av differentialt privata algoritmer: vi visar att om M är ε-DP, då dess förväntade integritetsförlust är endast (i stort sett) ε 2 /2 (för liten nog ε). Vi visar också att integritetsförlusten slumpmässiga variabeln för någon ε-DP algoritm är subgaussian, med parameter τ = O(ε): Theorem 3.5 (DP på CDP). Låt M vara någon ε-DP algoritm. Därefter är M (ε · (e ε − 1)/2, ε)-CDP. Bevis. Eftersom M är (ε, 0)-differentiellt privat, vet vi att integritetsförlust slumpmässig variabel alltid begränsas i magnitud av ε. Den slumpmässiga variabeln som erhålls genom att subtrahera den förväntade integritetsförlusten, kalla den μ, har därför ett medelvärde på noll och ligger i intervallet [−ε − μ, ε − μ]. Det framgår av Hoeffdings Lemma att en sådan avgränsad, centrerad, slumpmässig variabel är (ε − μ − (−ε − μ))/2 = ε-subgaussian. Lemma 3.6 (Hoeffdings Lemma). Låt X vara en noll-medel slumpmässig variabel sådan att Den största utmaningen är därför att begränsa förväntan, nämligen kvantiteten D KL (D-D ′ ), där D är fördelningen av M(x) och D ′ är fördelningen av M(y), och x, y är angränsande databaser. I [DRV10] visades det att: Vi förbättrar denna gräns, erhålla följande förfining: Beviset för Theorem 3.5 följer från Lemma 3.8. För att bevisa Lemma 3.8 introducerar vi begreppet antipodal distribution: Vi använder sedan följande två lemmas om maximalt divergerande distributioner (de bevis som följer nedan) för att bevisa Lemma 3.8: Bevis på Lemma 3.9. Låta ε = påse (D, D ′ ). Vi konstruerar M och M ′ iterativt från D och D ′ genom att räkna över varje x X. För varje sådant x lägger vi till ett nytt element s x till stödet. Tanken är att massan av x i D och D ′ kommer att vara "split" mellan x och s x i M och M ′ (respektive). Denna uppdelning kommer att säkerställa att sannolikheterna för s x i M och i M ′ är identiska, och sannolikheten för x i M och M ′ är "maximalt olika". Vi kommer att visa att "bidrag" av x och s x till KL skillnaden från M till M ′ är minst lika stor som bidraget av x till KL skillnaden från D till D ′. Lemman följer sedan. Vi fortsätter med den fullständiga specifikationen av denna "split" och formaliserar sedan ovanstående intuition. För x X, ta p x = D ′ [x]. Eftersom (D, D ) = e ε, måste det finnas α på [-1, 1] s.t. D[x] = e α·ε · p x. Vi inför en ny punkt s x i stödet och anger vikten av M och M ′ på x och s x enligt följande: = e tecken(α)·ε · p x · e α·ε − 1 e tecken(α)·ε − 1 = p x · (1 - e α·ε − 1 e tecken(α)·ε − 1 ) = p x · (e α·ε − 1 + 1) · e α·ε − 1 e tecken(α)·ε − 1 e tecken(α)·ε − 1 ) = p x · (e α·ε − 1) · e tecken(α)·ε − 1 e tecken(α) · 1 + 1) · e α·ε − 1 e tecken(α)·ε − 1 e tecken (α)·ε − 1 ) = p x · (e α·ε − (e tecken(α)·ε − 1) · e α·ε − 1 e tecken(α) · 1 e tecken(α) · 1 e) Dessutom är M och M ′ antipodal (M, M ′ ) = ε = (D, D ′ ). Distributionerna M och M ′ uppfyller således villkoren för lemma. Slutligen betonar vi att genom ovanstående har vi på x X, M [Vi jämför nu KL divergensen från D till D ′ med divergensen från M till M ′.
Dwork har föreslagit begreppet differentiell integritet för integritetsbevarande i statistiska datauppsättningar REF.
14,861,086
Concentrated Differential Privacy
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,821
Modellering av skarpa logiska regler är avgörande för semantisk tolkning, vilket gör det svårt för neurala modeller utan uppgiftsspecifika förkunskaper för att uppnå goda resultat. I detta dokument inför vi datarekombination, ett nytt ramverk för att injicera sådan förkunskap i en modell. Utifrån träningsdata framkallar vi en högprecisionssynkron sammanhangsfri grammatik, som fångar viktiga villkorade självständighetsegenskaper som vanligen finns i semantisk tolkning. Vi tränar sedan en sekvens-till-sekvens återkommande nätverk (RNN) modell med en ny uppmärksamhet-baserad kopieringsmekanism på datapunkter som provtas från denna grammatik, vilket lär modellen om dessa strukturella egenskaper. Datarekombination förbättrar noggrannheten hos vår RNN-modell på tre semantiska parseringsdatauppsättningar, vilket leder till nya toppmoderna prestanda på standarddatauppsättningen GeoQuery för modeller med jämförbar tillsyn.
REF inducerar grammatik från semantisk tolkning av träningsdata och genererar nya datapunkter genom provtagning för att mata en sekvens till RNN-modell.
7,218,315
Data Recombination for Neural Semantic Parsing
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,822
Den omfattande användningen av mobila enheter, dvs. smartphones och surfplattor, och deras stora mängd sensorer representerar en uppsjö av sidokanaler som utgör ett allvarligt hot mot användarens integritet och säkerhet. I detta dokument föreslår vi en ny typ av sidokanal som bygger på den omgivande ljussensor som används i dagens mobila enheter. Den senaste tidens framsteg inom detta forskningsområde fokuserade på de använda rörelsesensorerna och kameran samt ljudet, men vi undersöker en mindre uppenbar källa till informationsläckage, nämligen det omgivande ljuset. Vi demonstrerar framgångsrikt att mindre lutningar och svängar av mobila enheter orsakar variationer i informationen om ambientlight-sensorn. Dessutom visar vi att dessa variationer läcker tillräckligt med information för att härleda en användares personliga identifieringsnummer (PIN) indata baserat på en uppsättning kända PIN-koder. Våra resultat visar tydligt att vi kan bestämma rätt PIN-out av en uppsättning av 50 slumpmässiga PIN-koder-inom de första tio gissningar ca 80% av tiden. Däremot skulle chansen att hitta rätt PIN-kod genom att slumpmässigt gissa tio PIN-koder vara 20%. Eftersom de data som krävs för att utföra en sådan attack kan samlas in utan några specifika behörigheter eller privilegier, den presenterade attacken allvarligt äventyrar säkerheten och integriteten för ägare av mobila enheter.
Spreitzer föreslår en annan PIN Skimming attack REF och stjäl en användares PIN-kod baserat på mätningarna från smartphones omgivande ljussensor.
7,363,625
PIN Skimming: Exploiting the Ambient-Light Sensor in Mobile Devices
{'venue': "SPSM '14", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,823
I detta dokument presenteras en jämförande utvärdering av flera toppmoderna engelska tolker baserade på olika ramar. Vårt tillvägagångssätt är att mäta effekten av varje tolk när den används som en komponent i ett informationsextraktionssystem som utför protein-proteininteraktion (PPI) identifiering i biomedicinska papper. Vi utvärderar åtta parser (baserat på beroende tolkning, frasstruktur tolkning, eller djup tolkning) med hjälp av fem olika pars representationer. Vi kör ett PPI-system med flera kombinationer av parser och pars representation, och undersöka deras inverkan på PPI-identifiering noggrannhet. Våra experiment visar att de noggrannhetsnivåer som erhålls med dessa olika tolkar är likartade, men att noggrannhetsförbättringar varierar när tolkarna omskolas med domänspecifika data.
REF jämförde parserkvaliteten i den biomedicinska domänen med hjälp av en identifieringsnoggrannhet för protein-proteiner (PPI).
5,060,957
Task-oriented Evaluation of Syntactic Parsers and Their Representations
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,824
NLP uppgifter skiljer sig åt i den semantiska information de behöver, och vid denna tidpunkt ingen enda semantisk representation uppfyller alla krav. Logikbaserade representationer kännetecknar meningsstruktur, men fångar inte den graderade aspekten av mening. Distributionsmodeller ger graderade likhetsbetyg för ord och fraser, men fångar inte meningsstruktur i samma detalj som logikbaserade metoder. Det har därför hävdats att dessa två kompletterar varandra. Vi använder en hybridmetod som kombinerar logiska och distributionella semantik med probabilistisk logik, särskilt Markov Logic Networks. I denna artikel fokuserar vi på de tre komponenterna i ett praktiskt system: 1 1) Logisk representation fokuserar på att representera indataproblemen i probabilistisk logik; 2) kunskapsbaskonstruktion skapar viktade inferensregler genom att integrera distributionsinformation med andra källor; och 3) probabilistisk inferens innebär att lösa de resulterande MLN inferenceproblemen effektivt. För att utvärdera vårt tillvägagångssätt använder vi oss av uppgiften textförmedling, som kan utnyttja styrkan i både logiska och fördelningsmässiga representationer. I synnerhet fokuserar vi på SICK-data, där vi uppnår toppmoderna resultat. Vi släpper också en lexical conduration data uppsättning 10.213 regler som extraheras från SICK datauppsättningen, som är en värdefull resurs för att utvärdera lexical conduration systems.
REF använder distributionslikhet för att ta fram viktade slutledningsregler, som de införlivar i ett Markov Logic Network.
9,707,387
Representing Meaning with a Combination of Logical and Distributional Models
{'venue': 'Computational Linguistics', 'journal': 'Computational Linguistics', 'mag_field_of_study': ['Computer Science']}
81,825
Att använda drönarbasstationer (drone-BS) i trådlösa nätverk har börjat väcka uppmärksamhet. Drone-BS kan hjälpa marken BS i både kapacitet och täckning förbättring. Ett av de viktiga problemen med att integrera drönare-BS till cellulära nätverk är hanteringen av deras placering för att uppfylla de dynamiska systemkraven. I detta dokument föreslår vi en metod för att hitta positionerna för drönare-BS i ett område med olika användartätheter med hjälp av en heuristisk algoritm. Målet är att hitta det minsta antalet drönare-BS och deras 3D placering så att alla användare serveras. Våra simuleringsresultat visar att det föreslagna tillvägagångssättet kan uppfylla kraven på servicekvalitet i nätverket. 978-1-5090-1701-1/16/$31.00 ©2016 IEEE
I REF föreslogs en metod för att hitta 3D-placering av drönare i ett område med olika användartätheter med hjälp av en heuristisk algoritm, genom att frikoppla drone-BS-placeringen i den vertikala dimensionen från den horisontella dimensionen.
5,049,127
On the Number and 3D Placement of Drone Base Stations in Wireless Cellular Networks
{'venue': '2016 IEEE 84th Vehicular Technology Conference (VTC-Fall)', 'journal': '2016 IEEE 84th Vehicular Technology Conference (VTC-Fall)', 'mag_field_of_study': ['Computer Science']}
81,826
Abstract-I detta papper, vi tar itu med frågorna om att upprätthålla sensor täckning och anslutning genom att hålla ett minimalt antal sensornoder i aktivt läge i trådlösa sensornätverk. Vi undersöker förhållandet mellan täckning och konnektivitet genom att lösa följande två delproblem. För det första bevisar vi att om radioområdet är minst dubbelt så stort som avkänningsområdet, innebär en fullständig täckning av ett konvext område anslutning mellan de fungerande noderna. Med ett sådant bevis kan vi då bara fokusera på problemet med täckning. För det andra härleder vi, under idealfallet där nodtätheten är tillräckligt hög, en uppsättning optimala förhållanden under vilka en delmängd av arbetssensorn noder kan väljas för full täckning. Baserat på optimala förhållanden, vi utformar sedan en decentraliserad och lokaliserad densitet kontroll algoritm, Optimal Geografisk densitetskontroll (OGDC), för densitetskontroll i storskaliga sensornätverk. Ns-2-simulering visar att OGDC överträffar PEAS-algoritmen [32], den hexagonbaserade GAF-liknande algoritmen och sponsorns areaalgoritm [28] med avseende på det antal arbetsnoder som behövs (ibland vid en 50-procentig förbättring) och uppnår nästan samma täckning som algoritmen med bästa resultat.
REF visar att om radioområdet är minst dubbelt så stort som sensorområdet innebär en fullständig täckning av ett område anslutning mellan de fungerande noderna.
10,201,381
Maintaining Sensing Coverage and Connectivity in Large Sensor Networks
{'venue': 'Ad Hoc & Sensor Wireless Networks', 'journal': 'Ad Hoc & Sensor Wireless Networks', 'mag_field_of_study': ['Computer Science']}
81,827
Studentens-t blandning modell, som är kraftigt svansade och mer robust än Gaussian blandningsmodell, har nyligen fått stor uppmärksamhet på bildbehandling. I denna uppsats föreslår vi en robust non-rigid point set-registreringsalgoritm med hjälp av student-t-blandningsmodellen. Specifikt, för det första, anser vi anpassningen av två punktuppsättningar som en sannolikhet densitet uppskattning problem och behandla en punkt som Student-t blandning modell centroider. Sedan passar vi in Studentens-t blandningsmodell centroider till den andra punktuppsättningen som behandlas som data. Slutligen får vi de slutna lösningarna för registreringsparametrar, vilket leder till en beräkningseffektiv registreringsalgoritm. Den föreslagna algoritmen är särskilt effektiv när det gäller att ta itu med problemet med icke-riggade punkter för registrering när betydande mängder buller och avvikelser förekommer. Dessutom måste färre registreringsparametrar ställas in manuellt för vår algoritm jämfört med den populära sammanhängande punktdriftsalgoritmen (CPD). Vi har jämfört vår algoritm med andra toppmoderna registreringsalgoritmer på både 2D- och 3D-data med buller och avvikelser, där vår icke-rigid registreringsalgoritm visade korrekta resultat och överträffade de andra algoritmerna.
Zhou m.fl. REF undersöker fördelarna med Studentens-t Blandningsmodell över en GMM.
17,350,526
Robust Non-Rigid Point Set Registration Using Student's-t Mixture Model
{'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Physics', 'Medicine']}
81,828
Abstrakt. De flesta befintliga bild denoiserande metoder antar de korrumperade buller att vara additiv vit Gaussian buller (AWGN). Men det realistiska ljudet i verkliga bullriga bilder är mycket mer komplext än AWGN, och är svårt att modelleras av enkla analytiska distributioner. Som ett resultat, många state-of-the-art denoising metoder i litteraturen blir mycket mindre effektiv när tillämpas på verkliga bullriga bilder fångas av CCD eller CMOS-kameror. I detta dokument utvecklar vi ett trilateralt vägt sparse-system (TWSC) för robust bilddenoisering i verkligheten. Speciellt introducerar vi tre viktmatriser i data och legalisering termer i den glesa kodning ram för att karakterisera statistiken över realistiska buller och bild tidigare. TWSC kan omformuleras som ett linjärt jämställdhetsbetonat problem och kan lösas genom multiplikatormetoden med alternerande riktning. Förekomsten och unikheten av lösningen och konvergensen av den föreslagna algoritmen analyseras. Omfattande experiment visar att det föreslagna TWSC-systemet överträffar toppmoderna denomineringsmetoder för att avlägsna realistiskt buller.
TWSC REF utvecklar ett tresidigt vägt kodningssystem för glesa kodningssystem för verkliga bilder.
49,665,770
A Trilateral Weighted Sparse Coding Scheme for Real-World Image Denoising
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,829
Vi visar genom ett antal exempel att säkerhetsegenskaper i informationsflödet kan bevisas genom abstrakta arkitektoniska beskrivningar, som endast beskriver ett systems kausalstruktur och lokala egenskaper hos betrodda komponenter. Vi specificerar dessa arkitektoniska beskrivningar av system genom att generalisera intransitiva icke-interferens policyer för att erkänna möjligheten att filtrera information som skickas mellan kommunicerande domäner. Ett begrepp om förfining av sådana systemarkitekturer utvecklas som stöder uppifrån-och-ned utveckling av arkitektoniska specifikationer och bevis genom abstraktion av informationssäkerhet egenskaper. Vi visar också att i en konkret miljö där kausalstrukturen upprätthålls genom tillträdeskontroll är en statisk kontroll av inställning av tillträdeskontroll plus lokal kontroll av de betrodda komponenterna tillräcklig för att bevisa att en generaliserad intransitiv icke-interferenspolicy är tillfredsställd. Ytterligare nyckelord och fraser: Informationsflödessäkerhet, epistemisk logik, systemarkitektur, intransitiv icke-interferens Stephen Chong och Ron van der Meyden. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. Använda arkitektur för att resonera om informationssäkerhet. m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. [2008] omfattar den en konstruktionsprocess på två nivåer, bestående av en policynivå och en resursdelningsnivå. På policynivå beskrivs systemet av en arkitektur i form av en graf, där hörnen motsvarar komponenter och kanterna anger tillåten kommunikation mellan komponenter. I detta avseende är arkitekturen som en intransitiv icke-inblandningssäkerhetspolitik [Haigh and Young 1987; Rushby 1992; van der Meyden 2007]. På politisk nivå kan man också specificera vilka komponenter som är betrodda och vilka lokala politiska åtgärder som dessa komponenter är betrodda att genomföra. Enligt MILS vision, att bygga ett system enligt arkitekturen, genom att komponera komponenter som uppfyller deras lokala politik, bör resultera i systemet som uppfyller globala säkerhets- och säkerhetsegenskaper. På resursdelningsnivå planerar MILS att använda en rad infrastrukturella mekanismer för att se till att politiken för arkitektoniskt informationsflöde efterlevs trots att komponenter delar resurser som processorer, filsystem och nätverkslänkar. Dessa mekanismer kan omfatta fysisk isolering, separationskärnor, periodbehandling, kryptografi och åtskiljande nätverksinfrastruktur. Avsikten är att denna infrastruktur ska utvecklas till en hög säkerhetsnivå så att ett systemsäkringsfall kan erhållas genom sammansättningen av försäkringsfallen för betrodda komponenter och systeminfrastrukturer. Förhoppningen är att detta kommer att möjliggöra en COTS-liknande marknad för infrastrukturmekanismer och betrodda komponenter. Det viktigaste bidraget i denna artikel är att visa, genom flera exempel, att det i själva verket är möjligt, enligt vad som förutses i MILS litteratur, att härleda intressant information säkerhet egenskaper kompositionellt från en hög nivå specifikation av betrodda komponenter och deras arkitektoniska struktur. Vi fokuserar på kompositionstänkande kring säkerhetsfastigheter i informationsflödet. Vi presenterar en ram som gör det möjligt att specificera en systemarkitektur med lokala begränsningar för vissa systemkomponenter. För att ge den arkitektoniska strukturen en exakt innebörd utvidgar vi semantiken för en intransitiv icke-interferenspolitik som utvecklats av van der Meyden [2007]. Dessa riktlinjer är i form av en graf, där hörnen motsvarar systemkomponenter, och en kant från komponent u till komponent v anger att information är tillåten att strömma från u direkt till v. Denna semantik uttrycks i en asynkron modell av beräkning och fångar en uppfattning om information tillgänglig för en angripare som inte har tillgång till timing information. En arkitektonisk tolkning av denna semantik har tidigare gjorts [van der Meyden 2012]. För att uttrycka begränsningar på betrodda komponenter utökar vi arkitekturer genom att märka kanter mellan komponenter med funktioner som ytterligare begränsar den information som tillåts flöda längs kanterna. Ett av verkets bidrag är att ge en formell semantik till de berikade arkitekturer som inkluderar dessa nya typer av kanter. Vi utvecklar också en teori om förfining för dessa berikade arkitekturer, vilket möjliggör uppifrån-och-ned, korrekt-bevarande utveckling av arkitektoniska specifikationer. Det möjliggör också enkla bevis på informationssäkerhet egenskaper på komplexa arkitekturer som kan erhållas med hjälp av en abstraktion av denna arkitektur. Vi demonstrerar användningen av ramverket genom exempel som motiveras av system med intressanta säkerhetskrav. Dessa inkluderar flera nivåer säkra databaser, Starlight Interactive Link [Anderson et al. 1996 ], en pålitlig nedgraderare, och ett enkelt elektroniskt valsystem. I varje exempel finns det en tillämpningsspecifik informationsflöde säkerhetsfastighet, uttryckt i en logik av kunskap, som ska genomdrivas. För att upprätthålla dessa egenskaper identifierar vi i varje exempel en arkitektonisk struktur och en matematiskt exakt uppsättning lokala begränsningar för de betrodda komponenterna. Vi visar för varje exempel att dess specifika säkerhetsfastighet uppstår som en följd av samspelet mellan lokala begränsningar och den arkitektoniska strukturen. I varje exempel, våra resultat visar att för alla system som överensstämmer med arkitekturen, om
Chong och van der Meyden REF utökar detta ramverk till filterfunktioner för att begränsa den information som överförs om historiken.
7,706,703
Using Architecture to Reason about Information Security
{'venue': 'TSEC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,830
De flesta befintliga metoder för personidentifiering (re-id) kräver övervakad modellinlärning från en separat stor uppsättning pairwise-märkta träningsdata för varje enskilt kamerapar. Detta begränsar avsevärt skalbarheten och användbarheten i verkliga storskaliga distributioner med behovet av att utföra re-id över många kameravyer. För att ta itu med detta skalbarhetsproblem utvecklar vi en ny djupinlärningsmetod för att överföra den märkta informationen från en befintlig datauppsättning till en ny omärkt (omärkt) måldomän för person som åter-id utan någon övervakad inlärning i måldomänen. Särskilt inför vi en överförbar gemensam Attribut-Identitet Deep Learning (TJ-AIDL) för att samtidigt lära sig en attribut-semantisk och identitetsdiskriminerande funktion representation utrymme överförbar till någon ny (osedd) måldomän för re-id uppgifter utan behov av att samla in nya märkta utbildningsdata från måldomänen (dvs. oövervakad inlärning i måldomänen). Omfattande jämförande utvärderingar bekräftar överlägsenheten av denna nya TJ-AIDL-modell för icke övervakade personer åter-id över ett brett spektrum av state-of-the-art metoder på fyra utmanande riktmärken inklusive VIPeR, PRID, Market-1501, och DukeMTMC-ReID.
I REF lär sig det föreslagna tillvägagångssättet samtidigt ett attributsemantiskt och identitetsdiskriminerande inslagsrepresentation inom måldomänen.
4,331,913
Transferable Joint Attribute-Identity Deep Learning for Unsupervised Person Re-Identification
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
81,831
Abstract-Vi föreslår en ny legaliseringsmetod baserad på virtuell kontraarial förlust: ett nytt mått på lokal smidighet i utdatadistributionen. Virtuell kontraarial förlust definieras som robustheten i modellens bakre fördelning mot lokal perturbation runt varje inmatningspunkt. Vår metod liknar den kontradiktoriska träningen, men skiljer sig från den kontradiktoriska träningen genom att den bestämmer den kontradiktoriska riktningen endast baserat på utgångsfördelningen och att den är tillämplig på en semiövervakad inställning. Eftersom de riktningar i vilka vi slätar ut modellen är praktiskt taget kontradiktoriska, kallar vi vår metod virtuell kontradiktorisk utbildning (moms). Beräkningskostnaden för mervärdesskatt är relativt låg. För neurala nätverk, den ungefärliga gradienten av virtuella motgångar förlust kan beräknas med högst två par av framåt och bakåt propagationer. I våra experiment tillämpade vi moms på övervakad och halvövervakad inlärning på flera referensdatauppsättningar. Med ytterligare förbättringar baserade på entropiminimeringsprincipen uppnår vår moms toppmoderna prestanda på SVHN och CIFAR-10 för halvövervakade inlärningsuppgifter.
Ortogonal till ovanstående metoder, Virtual Adversarial Training (MOMS) REF föreslår att man använder virtuellt kontraarialt buller i stället för slumpmässigt buller som data perturbation.
17,504,174
Virtual Adversarial Training: a Regularization Method for Supervised and Semi-supervised Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Medicine', 'Computer Science', 'Mathematics']}
81,832
Abstract-I motsats till det befintliga arbetet med det uppkopplade täckningsproblemet i trådlösa sensornätverk som förutsätter allsidiga sensorer med diskliknande avkänningsområde, undersöker detta papper en rad nya problem relaterade till uppkopplad täckning i riktningssensornätverk där sensorer bara känner riktning och har ett sektorsliknande avkänningsområde. Vi överväger först problemen med att distribuera ett minsta antal riktningssensorer för att bilda ett anslutet nätverk för att täcka antingen en uppsättning punktplaceringar (Connected Point-Coverage Deployment (CPD)) eller hela målanalysområdet (Connected Region-Coverage Deployment (CRD)). CPD är NP-hård eftersom dess subproblem Geometric Sector Cover (GSC) är NP-hård. Vi presenterar två approximationsalgoritmer för GSC som subrutiner, och utvecklar en allmän lösningsram för CPD med approximationsförhållande σ + O(1), där σ är approximationsförhållandet för den valda GSC subrutinen. Vi beskriver också två effektiva spridningsmönster med garanterad täckningstäthet för CRD, och analyserar deras prestandagränser med avseende på godtyckliga icke-crossing spridningsmönster. Omfattande simuleringsresultat validerar riktigheten och förtjänsterna hos de presenterade algoritmerna och analyserna.
I REF föreslog författarna två olika täckningsproblem i riktningssensorn noderna.
1,328,423
Deploying Directional Sensor Networks with Guaranteed Connectivity and Coverage
{'venue': '2008 5th Annual IEEE Communications Society Conference on Sensor, Mesh and Ad Hoc Communications and Networks', 'journal': '2008 5th Annual IEEE Communications Society Conference on Sensor, Mesh and Ad Hoc Communications and Networks', 'mag_field_of_study': ['Computer Science']}
81,833
Traiter erbjuder en finkornig mekanism för att komponera klasser från återanvändbara komponenter samtidigt som man undviker problem med skörhet som orsakas av flera arv och mixins. De drag som ursprungligen föreslogs är statslösa, dvs. de innehåller endast metoder, men inga exempelvariabler. Staten kan endast nås inom statslösa egenskaper av accessors, som blir nödvändiga metoder för egenskapen. Även om detta tillvägagångssätt fungerar någorlunda bra i praktiken, innebär det att många egenskaper, som betraktas som programvarukomponenter, är artificiellt ofullständiga, och klasser som använder sådana egenskaper kan innehålla betydande mängder limkod för pannplattor. Vi presenterar en strategi för statiska drag som är trogna den vägledande principen om statslösa drag: klienten behåller kontrollen över sammansättningen. Statiska drag består av en minimal utvidgning till statslösa drag där variablerna är rent lokala i ett drags omfattning, såvida de inte uttryckligen görs tillgängliga av den komponerande klienten till ett drag. Vi visar med hjälp av en formell objektkalkyl att man genom att lägga till tillstånd till egenskaper bevarar den tillplattande egenskapen: egenskaper som ingår i ett program kan sammanställas bort. Vi diskuterar och jämför två genomförandestrategier, och presenterar kortfattat en fallstudie där statiska egenskaper har använts för att refaktor den dragbaserade versionen av insamlingshierarkin Smalltalk.
Nyligen påpekade REF begränsningar i den egenskapsmodell som orsakas av det faktum att metoder som tillhandahålls av en egenskap endast kan få tillgång till staten genom accessor metoder (som blir nödvändiga metoder för egenskapen).
1,386,246
Stateful traits and their formalization
{'venue': 'Comput. Lang. Syst. Struct.', 'journal': 'Comput. Lang. Syst. Struct.', 'mag_field_of_study': ['Computer Science']}
81,834
Kostnaden för storskalig datainsamling och annotering gör ofta tillämpningen av maskininlärningsalgoritmer på nya uppgifter eller datauppsättningar oöverkomligt dyrt. En metod som kringgår denna kostnad är utbildningsmodeller för syntetiska data där noteringar tillhandahålls automatiskt. Trots sin dragningskraft misslyckas sådana modeller ofta med att generalisera från syntetiska till verkliga bilder, vilket kräver domänanpassningsalgoritmer för att manipulera dessa modeller innan de framgångsrikt kan tillämpas. Befintliga metoder fokuserar antingen på att kartlägga representationer från en domän till en annan, eller på att lära sig att extrahera funktioner som är invarianta till den domän från vilken de extraherades. Men genom att enbart fokusera på att skapa en kartläggning eller en delad representation mellan de två domänerna, ignorerar de de enskilda egenskaperna hos varje domän. Vi hypothesize att explicit modellera vad som är unikt för varje domän kan förbättra en modells förmåga att extrahera domän-invarianta funktioner. Inspirerade av arbete med privat delad komponentanalys lär vi oss uttryckligen att extrahera bildrepresentationer som delas upp i två subrymder: en komponent som är privat till varje domän och en som delas över domäner. Vår modell är tränad att inte bara utföra den uppgift vi bryr oss om i källdomänen, utan också att använda den partitionerade representationen för att rekonstruera bilderna från båda domänerna. Vår nya arkitektur resulterar i en modell som överträffar state-of-the-art på en rad oövervakade domänanpassningsscenarier och dessutom producerar visualiseringar av de privata och delade representationer som möjliggör tolkning av domänanpassningsprocessen.
Ett annat exempel är DSN REF, som föreslår extraktion av bild representationer som är indelade i två subrymder: privat till varje domän och en som delas över domäner (inlärning domän-invariant funktioner).
2,127,515
Domain separation networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,835
Abstract-Även om hash funktion lärande algoritmer har uppnått stor framgång under de senaste åren, de flesta befintliga hash modeller är offline, som inte är lämpliga för behandling av sekventiella eller online data. För att ta itu med detta problem föreslår detta arbete en hashmodell online för att ta emot data som kommer i ström för online-inlärning. Särskilt föreslås en ny förlustfunktion för att mäta likhetsförlusten mellan ett par dataprover i hamming utrymme. Sedan härleds och optimeras en strukturerad hashmodell på ett passivt aggressivt sätt. Teoretisk analys av den övre gränsen för den kumulativa förlusten för den föreslagna hashmodellen på nätet tillhandahålls. Dessutom utökar vi vår online-hashing från en enda modell till en multi-modell online hashing som tränar flera modeller för att behålla olika online hashing modeller för att undvika partisk uppdatering. De föreslagna hashmodellernas konkurrenskraft och effektivitet verifieras genom omfattande experiment på flera storskaliga datauppsättningar jämfört med relaterade hashmetoder.
Online Hashing (OKH) REF lär sig hashfunktionerna från en ström av likhetsmärkta datapar med en "passiv-aggressiv" metod.
547,656
Online Hashing
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Medicine']}
81,836
Abstract-The distorsion i steganografi som vanligtvis kommer från modifieringen eller omkodning på omslaget bilden under inbäddningsprocessen lämnar steganalyzer med möjlighet att diskriminera. Inför en sådan risk föreslår vi generativ steganografi med Kerckhoffs princip (GSK) i detta brev. I GSK genereras de hemliga meddelandena av en omslagsbild med hjälp av en generator snarare än inbäddad i omslaget, vilket resulterar i inga ändringar i omslaget. För att säkerställa säkerheten utbildas generatorerna för att uppfylla Kerckhoffs princip baserad på generativa kontradiktoriska nätverk (GAN). Allt om GSK-systemet, förutom extraktionsnyckeln, är allmän kunskap för mottagarna. De hemliga meddelandena kan matas ut av generatorn om och endast om utdragsnyckeln och omslagsbilden båda matas in. I generatorutbildningsprocedurerna finns två GAN, Message-Gan och Cover-Gan, utformade för att gemensamt arbeta med att göra de genererade resultaten under kontroll av extraktionsnyckeln och omslagsbilden. Vi ger experimentella resultat på utbildningsprocessen och ger ett exempel på arbetsprocessen genom att anta en generator utbildad på MNIST, som visar att GSK kan använda en omslagsbild utan någon ändring för att generera meddelanden, och utan extraktionsnyckeln eller omslagsbilden, skulle endast meningslösa resultat uppnås.
Ke REF föreslog generativ steganografi metod som kallas GSK där de hemliga meddelandena genereras av en omslagsbild med hjälp av en generator snarare än inbäddad i omslaget, vilket resulterar i inga ändringar i omslaget.
1,690,568
Generative Steganography with Kerckhoffs' Principle based on Generative Adversarial Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,837
Abstrakt. Dense subgraph upptäckt är en nyckelfråga i graf mining, på grund av dess betydelse i flera tillämpningar, såsom korrelationsanalys, gemenskap upptäckt i webben, gen co-uttryck och protein-protein interaktioner i bioinformatik. I detta arbete studerar vi upptäckten av topp-k täta subgrafer i en uppsättning grafer. Efter utredningen av problemet i dess statiska fall utökar vi metoden till att arbeta med dynamiska grafsamlingar, där grafsamlingen förändras över tid. Vår metod är baserad på lägre och övre gränser för densiteten, vilket resulterar i en minskning av antalet exakta densitetsberäkningar. Våra algoritmer förlitar sig inte på användardefinierade tröskelvärden och den enda inmatning som krävs är antalet täta subgrafer i resultatet (k). Utöver de exakta algoritmerna tillhandahålls en approximationsalgoritm för toppk täta subgraffynd, som handlar om resultatnoggrannhet för hastighet. Vi visar att ett betydande antal exakta densitetsberäkningar undviks, vilket resulterar i effektiv övervakning av toppk täta subgrafer.
Dessutom har Valari m.fl. REF upptäckte toppk täta subgrafer i dynamiska grafsamlingar med hjälp av både exakta och ungefärliga algoritmer.
2,431,218
Discovery of Top-k Dense Subgraphs in Dynamic Graph Collections
{'venue': 'SSDBM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,838
Online fototjänster som Flickr och Zooomr gör det möjligt för användare att dela sina foton med familj, vänner och online community i stort. En viktig aspekt av dessa tjänster är att användare manuellt kommentera sina bilder med hjälp av så kallade taggar, som beskriver innehållet i fotot eller ger ytterligare kontextuell och semantisk information. I detta dokument undersöker vi hur vi kan hjälpa användare i taggningsfasen. Bidraget från vår forskning är tvåfaldigt. Vi analyserar en representativ ögonblicksbild av Flickr och presenterar resultaten med hjälp av en taggkarakterisering som fokuserar på hur användare taggar foton och vilken information som finns i taggningen. Baserat på denna analys, presenterar och utvärderar vi tagg rekommendation strategier för att stödja användaren i foto annotation uppgift genom att rekommendera en uppsättning taggar som kan läggas till bilden. Resultaten av den empiriska utvärderingen visar att vi effektivt kan rekommendera relevanta taggar för en mängd olika foton med olika nivåer av uttömmande originalmärkning.
Med ett liknande syfte utvecklade arbetet inom REF en rekommendationsstrategi för att stödja användare i fotoannotering.
207,167,403
Flickr tag recommendation based on collective knowledge
{'venue': 'IN WWW ’08: PROC. OF THE 17TH INTERNATIONAL CONFERENCE ON WORLD WIDE WEB', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,839
Ett bidrag till en särskild funktion "City analytics: matematisk modellering och beräkningsanalys för urbant beteende". Under de senaste årtiondena har världen upplevt en oöverträffad tillväxt i städerna under alla andra historiska perioder och denna tillväxt formar den miljö där en allt större andel av oss lever. I detta dokument använder vi en longitudinell datauppsättning från Foursquare, ett lägesbaserat socialt nätverk, för att analysera urban tillväxt i 100 större städer världen över. Inledningsvis undersöker vi hur stadstillväxten skiljer sig åt i städer över hela världen. Vi visar att det finns en stark rumslig korrelation, med närliggande par av städer mer sannolikt att dela liknande tillväxtprofiler än avlägsna par av städer. Därefter undersöker vi hur tillväxten varierar inne i städerna och visar att, med tanke på den befintliga lokala tätheten av platser, högre än förväntat tillväxt är högt lokaliserad medan lägre än förväntat tillväxt är mer diffus. Slutligen försöker vi använda datasetet för att karakterisera konkurrensen mellan nya och befintliga arenor. Genom att definiera ett mått baserat på förändringen av en platss genomströmning före och efter öppnandet av en ny närliggande plats, visar vi vilka handelsplatstyper som har en positiv effekt på platser av samma typ och som har en negativ effekt. Till exempel bekräftar vår analys hypotesen att det finns en stor grad av konkurrens mellan bokhandlar, i den meningen att befintliga bokhandlar normalt upplever en anmärkningsvärd nedgång i fotfallet efter att en ny bokhandel öppnar i närheten. Andra typer av platser, såsom museer, visas ha en samarbetseffekt och deras närvaro främjar högre trafikvolymer till närliggande platser av samma typ.
Mer nyligen, i REF, använde författarna ändringar i Foursquare check-in volymer, före och efter öppnandet av en ny plats, för att studera om vissa kategorier av företag samarbetar eller konkurrerar med andra närbelägna företag i samma kategori.
18,548,132
Tracking urban activity growth globally with big location data
{'venue': 'Royal Society Open Science', 'journal': 'Royal Society Open Science', 'mag_field_of_study': ['Mathematics', 'Biology', 'Physics', 'Computer Science', 'Medicine']}
81,840
I en rad olika problem som har sitt ursprung i övervakad, oövervakad och förstärkande inlärning, definieras förlustfunktionen av en förväntan över en samling slumpmässiga variabler, som kan vara en del av en probabilistisk modell eller den yttre världen. Uppskattning lutningen av denna förlust funktion, med hjälp av prover, ligger i kärnan av gradient-baserade inlärningsalgoritmer för dessa problem. Vi introducerar formalismen av stokastiska beräkningsgrafer-riktade acykliska grafer som inkluderar både deterministiska funktioner och villkorliga sannolikhetsfördelningar-och beskriva hur man enkelt och automatiskt härleda en opartisk estimator av förlustfunktionens gradient. Den resulterande algoritmen för beräkning av lutningsestimatorn är en enkel ändring av den standardiserade backpropagation-algoritmen. Det generiska systemet vi föreslår förenar estimatorer som härletts i olika tidigare arbeten, tillsammans med variansreducerande tekniker där. Det skulle kunna hjälpa forskare att utveckla invecklade modeller med en kombination av stokastiska och deterministiska operationer, vilket till exempel möjliggör uppmärksamhet, minne och kontrollåtgärder.
REF skriver också lutningen i den form som anges i Eq. 12 att automatiskt uppskatta lutningen genom en backpropagation algoritm i samband med stokastiska beräkningsgrafer.
7,125,379
Gradient Estimation Using Stochastic Computation Graphs
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,841
Säg att du letar efter information om en viss person. En sökmotor returnerar många sidor för den personens namn men vilka sidor handlar om personen du bryr dig om, och vilka handlar om andra människor som råkar ha samma namn? Om vi dessutom letar efter flera personer som är besläktade på något sätt, hur kan vi på bästa sätt utnyttja detta sociala nätverk? I detta dokument presenteras två oövervakade ramar för att lösa detta problem: en baserad på länkstrukturen på webbsidorna, en annan med hjälp av Agglomerative/Conglomerative Double Clustering (A/CDC)-en tillämpning av en nyligen införd multi-way distributional klustering metod. För att utvärdera våra metoder samlade och handmärkte vi ett dataset på över 1000 webbsidor som hämtats från Googles frågor på 12 personnamn som visas tillsammans i någon i en e-postmapp. På denna datauppsättning överträffar våra metoder traditionell agglomerativ klusterbildning med mer än 20%, uppnå över 80% F-mått.
REF disambigerade namn baserade på länkstrukturen på webbsidorna mellan en uppsättning socialt besläktade personer.
6,657,198
Disambiguating Web appearances of people in a social network
{'venue': "WWW '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,842
Tidigare CNN-baserade video super-upplösning metoder måste anpassa flera ramar till referensen. I detta dokument visar vi att en lämplig ramanpassning och motionsersättning är avgörande för att uppnå resultat av hög kvalitet. Vi föreslår därför ett "sub-pixel motion kompensation" (SPMC) skikt i ett CNN-ramverk. Analys och experiment visar lämpligheten av detta lager i video SR. Det slutliga skalbara CNN-ramverket, end-to-end, innehåller effektivt SPMC-skiktet och säkrar flera ramar för att avslöja bilddetaljer. Vår implementering kan generera visuellt och kvantitativt högkvalitativa resultat, överlägsna aktuella state-of-the-arts, utan behov av parameterstämning.
Tao och Al. I REF infördes ett nytt skikt för rörelsekompensering (SPMC) för att utföra rörelsekompensering och uppsampling tillsammans.
3,193,713
Detail-Revealing Deep Video Super-Resolution
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
81,843
Detta dokument ger belägg för att användningen av mer omärkta data i halvövervakat lärande kan förbättra prestandan för naturligt språkbehandling (NLP) uppgifter, såsom del-av-tal taggning, syntaktisk buntning, och namngivna enhet erkännande. Vi föreslår först en enkel men kraftfull semi-övervakad discriminativ modell lämplig för hantering av storskaliga omärkta data. Sedan beskriver vi experiment som utförs på allmänt använda testsamlingar, nämligen PTB III-data, CoNLL'00 och '03 delade uppgiftsdata för ovan tre NLP-uppgifter, respektive. Vi inkluderar upp till 1G-ord (en miljard tokens) av omärkta data, vilket är den största mängden omärkta data som någonsin använts för dessa uppgifter, för att undersöka prestandaförbättringen. Dessutom är våra resultat överlägsna de bästa rapporterade resultaten för alla ovanstående testsamlingar.
REF gav belägg för att användningen av mer omärkta data i halvövervakat lärande skulle kunna förbättra utförandet av NLP-uppgifter, t.ex. märkning av POS, syntaktisk buckling och erkännande av namngivna enheter.
647,664
Semi-Supervised Sequential Labeling and Segmentation Using Giga-Word Scale Unlabeled Data
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,844
Automatiskt generera en beskrivning av ett naturligt språk av en bild har lockat intressen nyligen både på grund av dess betydelse i praktiska tillämpningar och eftersom det ansluter två stora artificiell intelligens områden: datorseende och behandling av naturligt språk. Befintliga metoder är antingen top-down, som börjar från en kärna av en bild och omvandla den till ord, eller bottom-up, som kommer med ord som beskriver olika aspekter av en bild och sedan kombinera dem. I detta dokument föreslår vi en ny algoritm som kombinerar båda tillvägagångssätten genom en modell av semantisk uppmärksamhet. Vår algoritm lär sig att selektivt ägna sig åt semantiska konceptförslag och sammanfoga dem till dolda tillstånd och utgångar av återkommande neurala nätverk. Urvalet och fusionen utgör en återkoppling som kopplar ihop uppifrån-och-ned-beräkningen och nedifrån-och-upp-beräkningen. Vi utvärderar vår algoritm på två offentliga riktmärken: Microsoft COCO och Flickr30K. Experimentella resultat visar att vår algoritm avsevärt överträffar de senaste metoderna konsekvent över olika utvärderingsmått.
REF föreslog en semantisk uppmärksamhetsmetod för att selektivt ta hand om semantiska konceptförslag och sammanfoga dem till dolda tillstånd och resultat av RNN, men deras modell är svår att utvidga för att hantera flera uppsättningar av funktioner och attribut tillsammans.
3,120,635
Image Captioning with Semantic Attention
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
81,845
Abstrakt. När man försöker bearbeta en dataström i små utrymmen, hur viktig är den ordning i vilken uppgifterna anländer? Finns det problem som är omöjliga att lösa när beställningen är som värst, men som kan lösas (med hög sannolikhet) när ordern väljs jämnt på måfå? Om vi betraktar strömmen som en order från en motståndare, vad händer då om vi begränsar motståndarens makt? Vi studerar dessa frågor i samband med kvantiluppskattning, ett av de mest väl studerade problemen i data-strömsmodellen. Våra resultat inkluderar en O(polylog n)-rymd, O(log log n)-pass algoritm för exakt val i en slumpmässigt ordnad ström av n element. Detta löser en öppen fråga om Munro och Paterson. Räkna. Sci., 23 (1980), s. I avsnitt 1C001.b ska led a ersättas med följande: Vi demonstrerar sedan en exponentiell separation mellan slumpmässiga och kontradiktoriska modeller: med hjälp av O(polylog n) utrymme, exakt val kräver och (log n/ log log n) passerar i adversarial- order modell. Denna lägre gräns, i motsats till tidigare resultat, gäller helt allmänna randomiserade algoritmer och etableras via en ny gräns på kommunikations komplexiteten i en naturlig pekar-chasing stil problem. Vi bevisar också de första helt allmänna lägre gränserna i slumpmässiga-order-modellen: att hitta ett element med rang n/2 ± n δ i en-pass slumpmässiga-order-modellen med sannolikhet minst 9/10 kräver till ( n 1−3δ / log n) utrymme. Nyckelord. Kommunikationskomplexitet, stokastiskt genererade strömmar, strömberäkning AMS ämnesklassificeringar. 68Q05, 68Q17, 68Q25, 68W20, 68W25 1. Inledning. En av de viktigaste teoretiska motiven för att studera dataströmsmodellen är att förstå den roll som spelas av den ordning i vilken ett problem avslöjas. Medan en algoritm i RAM-modellen kan bearbeta indata i godtycklig ordning, är den viktigaste begränsningen för data-ström-modellen att algoritmen måste behandla (i små utrymmen) indata i den ordning den anländer. Parameterisera antalet passer som en algoritm kan ha över data etablerar ett spektrum mellan RAM-modellen och en-pass data-stream-modellen. Hur varierar modellens beräkningskraft längs detta spektrum? I vilken utsträckning spelar det någon roll hur strömmen beställs? Dessa frågor går tillbaka till ett av de tidigaste dokumenten om dataströmsmodellen där Munro och Paterson övervägde problemen med sortering och urval i begränsat utrymme [21]. De visade att Õ(n 1/p ) utrymme var tillräckligt för att hitta den exakta medianen för en sekvens av n nummer ges p passerar över data. Men om uppgifterna slumpvis beställdes, Õ(n 1/(2p) ) utrymme räckte. Baserat på detta resultat och andra observationer, verkade det troligt att någon p-pass algoritm i random-order-modellen kunde simuleras av en 2p-pass-algoritm i den kontradiktoriska-order-modellen. Detta utgjordes av ett öppet problem av Kannan [17], och ytterligare stöd för denna gissning kom via arbete initierat av Feigenbaum et al. [6] som beaktade förhållandet
Guha och McGregor REF förespråkar användning av slumpmässiga datamodeller i motsats till kontradiktoriska modeller.
1,122,494
STREAM ORDER AND ORDER STATISTICS: QUANTILE ESTIMATION IN RANDOM-ORDER STREAMS ∗
{'venue': 'SIAM J. Comput.', 'journal': 'SIAM J. Comput.', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,846
Vi föreslår en abstraktion-baserad multidokument summering ram som kan konstruera nya meningar genom att utforska mer finkorniga syntaktiska enheter än meningar, nämligen substantiv/verb fraser. Vår metod skiljer sig från befintliga abstraktionsmetoder och bygger först upp en samling begrepp och fakta som representeras av fraser från indatadokumenten. Sedan skapas nya meningar genom att välja och slå samman informativa fraser för att maximera svårighetsgraden av fraser och under tiden uppfylla meningen konstruktion begränsningar. Vi använder heltal linjär optimering för att genomföra frasval och sammanslagning samtidigt för att uppnå den globala optimala lösningen för en sammanfattning. Experimentella resultat av referensdatauppsättningen TAC 2011 visar att vårt ramverk överträffar de senaste modellerna under automatisk pyramidutvärdering och att det ger någorlunda goda resultat i fråga om manuell språklig kvalitetsbedömning.
REF konstruerar nya meningar genom att välja och slå samman informativa fraser.
8,377,315
Abstractive Multi-Document Summarization via Phrase Selection and Merging
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,847
Vi presenterar de första approximationssystemen för att minimera viktad flödestid på en enda maskin med företräde. Vårt första resultat är en algoritm som beräknar en (1+ )- ungefärlig lösning för alla fall av viktad flödestid i O(n O(ln W ln P/ 3 ) tid; här P är förhållandet mellan maximal jobbbearbetningstid till minimal jobbbearbetningstid, och W är förhållandet mellan maximal arbetsvikt och minimal arbetsvikt. Detta resultat ger direkt en kvasi-PTAS för viktad flödestid när P och W är polybundet, och en PTAS när de båda är O(1). Vi stärker det tidigare resultatet för att visa att för att få en kvasi-PTAS räcker det med att bara ha en av P och W att vara poly-bundet. Vårt resultat ger starka bevis för hypotesen att det viktade flödestidsproblemet har ett PTAS. Vi noterar att problemet är starkt NP-hård även när P och W är O(1). Vi betraktar därefter två viktiga specialfall av viktad flödestid, nämligen när P är O(1) och W är godtycklig, och när vikten av ett jobb är omvänd av sin bearbetningstid som kallas stretch metrisk. För båda de ovan nämnda specialfallen får vi en (1 + ) - approximation för alla > 0 genom att använda en randomiserad partitionering schema för att minska en godtycklig instans till flera fall som alla har P och W avgränsas av en konstant som endast beror på.
Chekuri och Khanna REF gav en kvasi-PTAS för detta problem, där körtiden var O(n O (logW logP ) ).
3,088,665
Approximation schemes for preemptive weighted flow time
{'venue': "STOC '02", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,848
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
Denna uppsättning idéer har kulminerat i Snabbare R-CNN REF, där regionala förslag genereras effektivt med hjälp av ett fullständigt konvolutionsnätverk.
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
81,849
Vi undersöker om en klassificeringsgivare kontinuerligt kan autentisera användare baserat på hur de interagerar med pekskärmen på en smarttelefon. Vi föreslår en uppsättning av 30 beteendemässiga touch funktioner som kan extraheras från rå pekskärm loggar och visa att olika användare befolkar olika subrymder av denna funktion utrymme. I ett systematiskt experiment utformat för att testa hur detta beteendemönster uppvisar konsekvens över tid samlade vi in touchdata från användare som interagerar med en smarttelefon med hjälp av grundläggande navigeringsmanövrer, dvs. upp-och-ned och vänster-höger rullning. Vi föreslår ett klassificeringsramverk som lär sig en användares beröringsbeteende under en inskrivningsfas och kan acceptera eller avvisa den nuvarande användaren genom att övervaka interaktion med pekskärmen. Klassificeringsgivaren uppnår en medianvärde för lika felfrekvens på 0% för autentisering inom sessionen, 2%-3% för behörighetskontroll mellan sessioner och under 4% när autentiseringstestet genomfördes en vecka efter inskrivningsfasen. Medan våra experimentella resultat diskvalificerar denna metod som en fristående autentiseringsmekanism för långsiktig autentisering, kan den genomföras som ett sätt att förlänga skärmlåsningstiden eller som en del av ett multimodalt biometriskt autentiseringssystem.
På samma sätt, Frank et al. REF föreslog ett gestbaserat kontinuerligt autentiseringssystem med en uppsättning av 30 touch-baserade funktioner och testade det på 41 användare.
17,558,010
Touchalytics: On the Applicability of Touchscreen Input as a Behavioral Biometric for Continuous Authentication
{'venue': 'IEEE Transactions on Information Forensics and Security (Vol. 8, No. 1), pages 136-148, 2013', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,850
Olika modelleringsmetoder har föreslagits för att övervinna varje konstruktionsgrop av utvecklingen av de olika delarna av ett datalager (DW) system. De är dock alla partiella lösningar som behandlar isolerade aspekter av DW och inte ger designers en integrerad och standardmetod för att utforma hela DW (ETL-processer, datakällor, DW-arkiv osv.). Å andra sidan är Model Driven Architecture (MDA) ett standardramverk för programvaruutveckling som behandlar hela livscykeln för att designa, distribuera, integrera och hantera applikationer genom att använda modeller i mjukvaruutveckling. I detta dokument beskriver vi hur man kan anpassa hela utvecklingsprocessen för DW till MDA. Därefter definierar vi MD 2 A (MultiDimensional Model Driven Architecture), ett tillvägagångssätt för att tillämpa MDA-ramverket på ett av stegen i DW-utvecklingen: multidimensionell (MD) modellering. Först beskriver vi hur man bygger de olika MDA artefakterna (dvs. modeller) genom att använda utökningar av det enhetliga modellspråket (UML). För det andra är omvandlingar mellan modeller tydligt och formellt fastställda med hjälp av metoden Query/View/Transformation (QVT). Slutligen ges ett exempel för att bättre visa hur man tillämpar MDA och dess omvandlingar till MD-modellering.
Ett tillvägagångssätt för Data Warehouse-utveckling baserad på modellen Driven Architecture presenteras av REF.
8,504,901
Applying MDA to the development of data warehouses
{'venue': "DOLAP '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,851
Analysen av hjärnans konnektivitet är ett stort fält inom neurovetenskap med frekvent användning av visuella representationer och ett ökande behov av visuella analysverktyg. Baserat på en fördjupad litteraturgenomgång och intervjuer med neuroforskare utforskar vi avancerad hjärnkonnektivitetsanalys som behöver stödjas av dedikerade visuella analysverktyg. Ett viktigt exempel på en sådan uppgift är jämförelsen av olika konnektivitetsdata i form av viktade grafer. Flera metoder har föreslagits för grafjämförelse inom informationsvisualisering, men jämförelsen av viktade grafer har inte tagits upp. Vi utforskade designen utrymme för tillämpliga visuella representationer och presentera förstärkt adjacency matris och node-länk visualiseringar. För att bedöma vilken representation som bäst stöder viktade grafjämförelseuppgifter utförde vi ett kontrollerat experiment. Våra resultat tyder på att matriser stöder dessa uppgifter väl, presterande node-länk diagram. Dessa resultat har betydande konsekvenser för utformningen av verktyg för analys av hjärnans konnektivitet som kräver viktade grafjämförelser. De kan också informera om utformningen av visuella analysverktyg inom andra områden, t.ex. Jämförelse av viktade sociala nätverk eller biologiska vägar.
I den senaste studien, Alper et al. Ref jämförde nodelänkdiagram med matrisrepresentationer med hjälp av ett kontrollerat experiment för att bedöma vilken representation som bäst stöder viktade grafjämförelseuppgifter.
14,296,360
Weighted graph comparison techniques for brain connectivity analysis
{'venue': "CHI '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,852
....................................... Fångar händer och kroppar tillsammans. Beige: rå 4D-avsökning. Rosa: återhämtad form och pose med hjälp av vår modell av händer och kroppar interagerar tillsammans (SMPL+H). För att hantera buller och saknade data utvecklar vi en ny handmodell som heter MANO (handmodell med artikulerad och icke-rigid defOrmations) och kombinerar den med en parameteriserad 3D-kroppsmodell (SMPL). Denna kombination möjliggör naturlig prestanda fånga även under kraftigt bullriga mätningar. Människor flyttar samman sina händer och kroppar för att kommunicera och lösa uppgifter. Fånga och replikera sådan samordnad aktivitet är avgörande för virtuella tecken som beter sig realistiskt. Förvånansvärt nog behandlar de flesta metoder 3D-modellering och spårning av kroppar och händer separat. Här formulerar vi en modell av händer och kroppar som interagerar tillsammans och passar den till fullkropps 4D-sekvenser. När man skannar eller fångar hela kroppen i 3D, händer är små och ofta delvis ocluded, vilket gör deras form och utgör svårt att återhämta sig. För att klara av lågupplösning, ocklusion och buller utvecklar vi en ny modell som heter MANO (handmodell med artikulerad och icke-rigid defOrmations). Mano lär sig från omkring 1000 högupplösta 3D-skanningar av händer på 31 ämnen i en mängd olika handposer. Modellen är realistisk, lågdimensionell, fångar icke-rigid form förändringar med pose, är kompatibel * Båda författarna bidrog lika till tidningen † Denna forskning utfördes av JR på MPI for Intelligent Systems. Författarens e-postadresser: javier.romero@bodylabs.com; {dtzionas, black}@tue.mpg.de. Tillstånd att göra digitala eller papperskopior av delar eller allt detta arbete för personligt bruk eller klassrum beviljas utan avgift, förutsatt att kopiorna inte görs eller distribueras för vinst eller kommersiella fördelar och att kopiorna är försedda med detta meddelande och den fullständiga hänvisningen på första sidan. Upphovsrätt till tredje parts delar av detta arbete måste hedras. För all annan användning, kontakta ägaren/författarna. med vanliga grafikpaket, och kan passa alla mänskliga händer. MANO ger en kompakt kartläggning från hand poser för att posera blandning form korrigeringar och ett linjärt mångfald av pose synergier. Vi fäster MANO till en standardparameteriserad 3D kroppsformsmodell (SMPL), vilket resulterar i en helt ledad kropp och handmodell (SMPL+H). Vi illustrerar SMPL+H genom att montera komplexa, naturliga aktiviteter av objekt fångas med en 4D-scanner. Monteringen är helt automatisk och resulterar i fullkroppsmodeller som rör sig naturligt med detaljerade handrörelser och en realism som inte tidigare setts i fullkroppsprestandafångst. Modellerna och uppgifterna är fritt tillgängliga för forskningsändamål på
Särskilt en generativ 3D-modell som kan uttrycka kropp och händer introducerades också av Romero et al. Hoppa över det.
1,475,882
Embodied hands: modeling and capturing hands and bodies together
{'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,853
Lokalisering av objekt i det verkliga 3D-utrymmet, som spelar en avgörande roll i scenförståelse, är särskilt utmanande med tanke på endast en RGB-bild på grund av den geometriska informationsförlusten under bildprojektion. Vi föreslår MonoGRNet för amodal 3D-objektets lokalisering från en monokulär RGB-bild via geometriskt resonemang i både den observerade 2D-projektionen och den oobserverade djupdimensionen. MonoGRNet är ett enda, enhetligt nätverk som består av fyra uppgiftsspecifika delnätverk, som ansvarar för 2D-objektdetektering, till exempel djupuppskattning (IDE), 3D-lokalisering och lokal hörnregression. Till skillnad från pixel-nivå djupuppskattning som behöver per-pixel kommentarer, föreslår vi en ny IDE-metod som direkt förutser djupet av mål 3D gränsboxens centrum med sparsamt övervakning. 3D-lokaliseringen uppnås ytterligare genom att man beräknar positionen i de horisontella och vertikala dimensionerna. Slutligen, MonoGRNet är gemensamt lärt genom att optimera platser och poser av 3D avgränsande rutor i det globala sammanhanget. Vi visar att MonoGRNet uppnår toppmoderna prestanda på utmanande datauppsättningar.
MonoGR-Net REF optimerar 3D-boxarnas placering och placering i det globala sammanhanget.
53,772,149
MonoGRNet: A Geometric Reasoning Network for Monocular 3D Object Localization
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,854
Trots de senaste framstegen i utbildning återkommande neurala nätverk (RNNs), fånga långsiktiga beroenden i sekvenser är fortfarande en grundläggande utmaning. De flesta tillvägagångssätt använder backpropagation genom tiden (BPTT), vilket är svårt att skala till mycket långa sekvenser. I detta dokument föreslås en enkel metod som förbättrar förmågan att fånga långsiktiga beroenden i RNN genom att lägga till en oövervakad extra förlust till det ursprungliga målet. Denna extra förlust tvingar RNN att antingen rekonstruera tidigare händelser eller förutsäga nästa händelser i en sekvens, vilket gör trunkerad backpropagation möjligt för långa sekvenser och även förbättra full BPTT. Vi utvärderar vår metod på en mängd olika inställningar, inklusive pixel-by-pixel bildklassificering med sekvenslängder upp till 16 000, och en verklig dokumentklassificeringsriktmärke. Våra resultat belyser goda resultat och resurseffektivitet i denna strategi jämfört med konkurrenskraftiga baslinjer, inklusive andra återkommande modeller och en jämförbar storlek Transformer. Ytterligare analyser avslöjar positiva effekter av den extra förlusten på optimering och legalisering, liksom extrema fall där det finns lite till ingen backpropagation.
REF lär sig långsiktiga beroenden med hjälpförluster.
4,760,632
Learning Longer-term Dependencies in RNNs with Auxiliary Losses
{'venue': 'ICML 2018', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,855
Sammanfattning av denna webbsida: Säker och korrekt datafusion är en viktig fråga i trådlösa sensornätverk (WSN) och har forskats ingående i litteraturen. I detta dokument, genom att kombinera klusterteknik, rykte och förtroendesystem, och datafusionsalgoritmer, föreslår vi en ny klusterbaserad datafusionsmodell kallad Double Cluster Heads Model (DCHM) för säker och exakt datafusion i WSNs. Olika från traditionella klustermodeller i WSN:er väljs två klusterhuvuden efter klusterbildning för varje kluster baserat på rykte och förtroendesystem och de utför datafusion oberoende av varandra. Därefter skickas resultaten till basstationen där olikhetskoefficienten beräknas. Om olikhetskoefficienten för de två datafusionsresultaten överskrider den tröskel som förinställts av användarna, läggs klusterhuvudena till i svarta listan, och klusterhuvudena måste omväljas av sensornoder i ett kluster. Samtidigt, feedback skickas från basstationen till ryktet och förtroende systemet, som kan hjälpa oss att identifiera och ta bort de komprometterade sensorn noder i tid. Genom en serie omfattande simuleringar fann vi att DCHM presterade mycket bra i datafusionssäkerhet och noggrannhet.
Fu Ref föreslog dubbel CH-modell för säker och korrekt datafusion, där varje kluster upprätthåller dubbla CH-värden enligt ryktesutvärderingen.
1,933,897
Double Cluster Heads Model for Secure and Accurate Data Fusion in Wireless Sensor Networks
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
81,856
Abstract-This paper föreslår en förbättrad LSB (minst betydande bit) baserad Steganography teknik för bilder som ger bättre informationssäkerhet.Det presenterar en inbäddning algoritm för att dölja krypterade meddelanden i icke-adjacent och slumpmässiga pixel platser i kanter och släta områden av bilder. Den krypterar först det hemliga meddelandet och upptäcker kanter i omslaget med hjälp av förbättrat filter för kantdetektering. Message bits är sedan inbäddade i den minst betydande byte av slumpmässigt utvalda kant område pixlar och 1-3-4 LSBs av röda, gröna, blå komponenter respektive över slumpmässigt utvalda pixlar över slät yta av bilden. Det säkerställer att tjuvlyssnarna inte kommer att ha någon misstanke om att meddelandebitar är dolda i bilden och standard steganografi detektionsmetoder inte kan uppskatta längden på det hemliga meddelandet korrekt. Den föreslagna metoden är bättre i PPNR-värde och kapacitet som visas experimentellt än befintliga tekniker.
I REF föreslår en typ av LSB-baserad RGB-intensitetsteganografi teknik en förbättrad LSB (minst betydande bit) baserad Steganografi teknik för bilder.
8,336,354
An Improved LSB Based Steganography Technique for RGB Color Images
{'venue': None, 'journal': 'International Journal of Computer and Communication Engineering', 'mag_field_of_study': ['Computer Science']}
81,857
Vi presenterar ett nytt tillvägagångssätt för relationsextraktion, baserat på observationen att den information som krävs för att hävda ett förhållande mellan två namngivna enheter i samma mening vanligtvis fångas av den kortaste vägen mellan de två enheterna i beroendekurvan. Experiment om att extrahera relationer på toppnivå från tidningen ACE (Automated Content Extraction) visar att den nya kortaste vägen beroende kärna överträffar en ny metod baserad på beroende trädkärnor.
Ref tolkade meningen i ett beroendediagram och kände igen relationstyperna från den kortaste vägen mellan två namngivna enheter.
5,165,854
A Shortest Path Dependency Kernel For Relation Extraction
{'venue': 'Human Language Technology Conference And Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,858
Generaliserade linjära modeller med icke-linjära funktionsomvandlingar används i stor skala för regression och klassificeringsproblem med glesa ingångar. Memorandumering av funktionsinteraktioner genom en bred uppsättning tvärproducerade funktionstransformationer är effektiva och tolkningsbara, medan generalisering kräver mer funktionstekniska insatser. Med mindre funktionsteknik kan djupa neurala nätverk generalisera bättre till osynliga funktionskombinationer genom lågdimensionella täta inbäddningar inlärda för de glesa funktionerna. Djupa neurala nätverk med inbäddningar kan over-generalize och rekommendera mindre relevanta objekt när användaren-item interaktioner är glesa och hög-rank. I detta dokument presenterar vi Wide & Deep-lärande-gemensamt utbildade breda linjära modeller och djupa neurala nätverk-för att kombinera fördelarna med memorering och generalisering för recommender system. Vi producerade och utvärderade systemet på Google Play, en kommersiell mobilappbutik med över en miljard aktiva användare och över en miljon appar. Online-experimentresultat visar att Wide & Deep avsevärt ökade appförvärv jämfört med bred- och djup-bara modeller. Vi har också öppnat vår implementering i TensorFlow.
I REF föreslås en bred- och djupmodell för recommender-system och den uppnår både memorering och generalisering.
3,352,400
Wide & Deep Learning for Recommender Systems
{'venue': 'DLRS 2016', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,859
Vi föreslår en reparameterisering av LSTM som ger fördelarna med batch normalisering till återkommande neurala nätverk. Medan tidigare arbeten endast tillämpar batch normalisering till input-to-dold transformation av RNNs, visar vi att det är både möjligt och fördelaktigt att batch-normalisera den dolda-till-dolda övergången, vilket minskar interna kovariat skifte mellan tid steg. Vi utvärderar vårt förslag om olika sekventiella problem såsom sekvensklassificering, språkmodellering och frågesvar. Våra empiriska resultat visar att vår satsnormaliserade LSTM konsekvent leder till snabbare konvergens och förbättrad generalisering.
Laurent och Al. REF visade att tillämpa batch normalisering, till Recurrent Neural Networks leder till en snabbare konvergens av utbildning.
1,107,124
Recurrent Batch Normalization
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,860
Efter mer än ett decennium av utvecklingsarbete och förhoppningar har användningen av mobilt Internet äntligen tagit fart. Nu bevittnar vi de första tecknen på vad som kan bli explosión för mobilt innehåll och tillämpningar som kommer att forma (mobil) Internet i framtiden. I likhet med Internet kommer sökningen att bli mycket relevant för användningen av mobilt Internet. Nuvarande forskning om mobil sökning har tillämpat en begränsad uppsättning metoder och har också genererat ett begränsat antal meningsfulla resultat. Denna artikel täcker ny mark, utforska användning och visioner av mobil sökning med en användares intervju-baserad kvalitativ studie. Dess huvudsakliga conlusión bygger på hypotesen att mobil sökning är känslig för en mobil logik som skiljer sig från dagens. För det första, (avancerade) användare ber om åtkomst med sina mobila enheter hela Internet, snarare än underavsnitt av det. För det andra bygger framgången på nya mervärdestillämpningar som utnyttjar unika mobila funktioner. Författarna tolkar att sådan mobillogik i grunden innebär användning av individanpassade och kontextbaserade tjänster.
I en nyligen publicerad artikel REF utforskade författarna användningen och visionerna av mobil sökning med användarnas intervjubaserade kvalitativa studie och hade följande slutsatser.
17,084,392
Exploring the logic of mobile search
{'venue': 'Behav. Inf. Technol.', 'journal': 'Behav. Inf. Technol.', 'mag_field_of_study': ['Computer Science']}
81,861
Abstract-This paper föreslår S-MAC, en medium passerkontroll (MAC) protokoll utformad för trådlösa sensornätverk. Trådlösa sensornätverk använder batteridrivna dator- och sensorenheter. Ett nätverk av dessa enheter kommer att samarbeta för en gemensam tillämpning såsom miljöövervakning. Vi förväntar oss att sensornätverk ska sättas in på ett ad hoc-sätt, med noder fortfarande i stort sett inaktiva under lång tid, men bli plötsligt aktiva när något upptäcks. Dessa egenskaper hos sensornätverk och applikationer motiverar en MAC som skiljer sig från traditionella trådlösa MAC som IEEE 802.11 på flera sätt: energibevarande och självkonfigurering är primära mål, medan pernode rättvisa och latens är mindre viktiga. S-MAC använder några nya tekniker för att minska energiförbrukningen och stödja självkonfigurering. Det möjliggör lågcyklisk drift i ett multihop-nätverk. Noder bildar virtuella kluster baserat på gemensamma sömnscheman för att minska kontroll overhead och möjliggöra trafikadaptiv vakna upp. S-MAC använder in-channel signalering för att undvika att höra onödig trafik. Slutligen, S-MAC tillämpar meddelande passerar för att minska tvist latency för program som kräver i-nätverk databehandling. Papperet presenterar mätresultat av S-MAC prestanda på en provsensor nod, UC Berkeley Mote, och avslöjar grundläggande kompromisser på energi, latens och genomströmning. Resultaten visar att S-MAC får betydande energibesparingar jämfört med en 802.11-liknande MAC utan att sova. Index Terms-Energy efficiency, medium access control (MAC), sensornätverk, trådlöst nätverk.
- Ja, det är jag. REF föreslog S-MAC, ett tvistebaserat MAC-protokoll för WSN.
1,344,843
Medium access control with coordinated adaptive sleeping for wireless sensor networks
{'venue': 'IEEE/ACM Transactions on Networking', 'journal': 'IEEE/ACM Transactions on Networking', 'mag_field_of_study': ['Computer Science']}
81,862
Diametern på en graf är bland dess mest grundläggande parametrar. Sedan några år sedan blev det dessutom en nyckelfråga att beräkna det för massiva grafer i samband med komplexa nätverksanalyser. Men kända algoritmer, inklusive de som producerar ungefärliga värden, har för hög tids- och/eller rymdkomplexitet för att användas i sådana fall. Vi föreslår här en ny strategi som bygger på mycket enkla och snabba algoritmer som beräknar (övre och lägre) gränser för diametern. Vi visar empiriskt att i olika verkliga fall som är representativa för komplexa nätverk som studeras i litteraturen är de erhållna gränserna mycket snäva (och till och med lika i vissa fall). Detta leder till rigorösa och mycket exakta uppskattningar av den faktiska diametern i fall som tidigare varit oåtkomliga i praktiken. Magnien, C., Latapy, M., och Habib, M. 2008. Snabb beräkning av empiriskt snäva gränser för diametern på massiva grafer. Detta beslut riktar sig till Konungariket Spanien. Under hela denna artikel, anser vi en ansluten oriktad oviktad graf G = (V, E) med n = på V på hörn och m = på kanter. Vi betecknar d (u, v) avståndet mellan u och v i G, ecc(v) = max u d (v, u) excentriciteten av v i G, och D = max u,v d (u, v) = max v ecc(v) diametern av G.
Magnien m.fl. REF utvecklade en snabb algoritm för att hitta snäva gränser för diametrar.
397,891
Fast computation of empirically tight bounds for the diameter of massive graphs
{'venue': 'JEAL', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,863
I detta dokument överväger vi en version av noll-shot inlärningsproblem där sett klass käll- och måldomändata tillhandahålls. Målet under testtiden är att exakt förutsäga klassbeteckningen för en osynlig domäninstans baserad på avslöjad källdomäninformation (t.ex. attribut) för osedda klasser. Vår metod är baserad på att se varje källa eller måldata som en blandning av synliga klass proportioner och vi postulerar att blandningen mönster måste vara liknande om de två fallen tillhör samma osynliga klass. Detta perspektiv leder oss till att lära källa / mål inbäddning funktioner som kartlägger en godtycklig källa / måldomän data i samma semantiska utrymme där likhet kan lätt mätas. Vi utvecklar ett maxmarginalramverk för att lära oss dessa likhetsfunktioner och gemensamt optimera parametrar genom korsvalidering. Våra testresultat är övertygande, vilket leder till betydande förbättringar i fråga om noggrannhet på de flesta referensdatauppsättningar för noll-shot-igenkänning.
SSE REF använder blandningen av synliga klass proportioner som det gemensamma utrymmet och hävdar att bilder tillhör samma klass bör ha liknande blandningsmönster.
446,581
Zero-Shot Learning via Semantic Similarity Embedding
{'venue': '2015 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2015 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,864
Vi tar itu med uppgiften att svara på frågor om naturligt språk genom att använda det stora antalet vanliga frågor (FAQ) sidor som finns på webben. Uppgiften omfattar tre steg: (1) hämta FAQ-sidor från webben; (2) automatisk extraktion av frågor/svar (Q/A) par från insamlade sidor; och (3) svara på användarnas frågor genom att hämta lämpliga Q/A-par. Vi diskuterar våra lösningar för var och en av de tre uppgifterna, och ger detaljerade utvärderingsresultat på en samlad corpus på cirka 3,6 Gb textdata (293K sidor, 2,8M Q/A par), med verkliga användares frågor provtagna från en webbsökning motorlogg. Speciellt föreslår vi enkla men effektiva metoder för Q/A-extrahering och undersöker uppgiftsspecifika hämtningsmodeller för att besvara frågor. Vår bästa modell hittar svar för 36% av testfrågorna i de 20 bästa resultaten. Vår övergripande slutsats är att FAQ-sidor på webben är en utmärkt resurs för att hantera verkliga användares informationsbehov på ett mycket fokuserat sätt.
REF föreslog en metod för att automatiskt extrahera frågesvar par från FAQ-sidor med formateringstecken.
12,807,819
Retrieving answers from frequently asked questions pages on the web
{'venue': "CIKM '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,865
Visuell igenkänning kräver rika representationer som spänner nivåer från låg till hög, skalor från liten till stor, och upplösningar från fin till grov. Även med djupet av funktioner i ett konvolutionsnätverk, ett lager i isolering är inte tillräckligt: att förena och samla dessa representationer förbättrar slutsatsen om vad och var. Arkitektoniska insatser utforskar många dimensioner för nätverkens ryggrad, designar djupare eller bredare arkitekturer, men hur man bäst kan aggregera lager och block över ett nätverk förtjänar ytterligare uppmärksamhet. Även om skippa anslutningar har införlivats för att kombinera lager, dessa anslutningar har varit "shallow" själva, och endast säkring genom enkla, ett steg operationer. Vi förstärker standardarkitekturer med djupare aggregering till bättre säkringsinformation över lager. Vår djupa lageraggregering strukturer iterativt och hierarkiskt slå samman funktionen hierarki för att göra nätverk med bättre noggrannhet och färre parametrar. Experiment över arkitekturer och uppgifter visar att aggregation med djupa lager förbättrar igenkänning och upplösning jämfört med befintliga system för förgrening och sammanslagning.
REF design strukturer iterativt och hierarkiskt slå samman funktionen hierarki för att bättre samman information i en djup fusion.
30,834,643
Deep Layer Aggregation
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
81,866
Skyline beräkning, som syftar till att identifiera en uppsättning skyline punkter som inte domineras av någon annan punkt, är särskilt användbar för multi-criteria data analys och beslutsfattande. Traditionell skyline beräkning, dock, är otillräcklig för att svara på frågor som behöver analysera inte bara enskilda punkter, men också grupper av punkter. För att ta itu med denna lucka generaliserar vi den ursprungliga skylinedefinitionen till den nya gruppbaserade skylineen (G-Skyline), som representerar Pareto optimala grupper som inte domineras av andra grupper. För att beräkna G-Skyline grupper som består av k-punkter effektivt, presenterar vi en ny struktur som representerar punkterna i en riktad skyline graf och fångar dominansrelationerna mellan de punkter som bygger på de första k skyline skikten. Vi föreslår effektiva algoritmer för att beräkna de första k- skylinelagren. Vi presenterar sedan två heuristiska algoritmer för att effektivt beräkna G-Skyline-grupperna: den punktvisa algoritmen och den gruppvisa enhetsalgoritmen med hjälp av olika beskärningsstrategier. De experimentella resultaten på det verkliga NBA-datasetet och de syntetiska dataseten visar att G-Skyline är intressant och användbart, och våra algoritmer är effektiva och skalbara.
För att ta itu med denna lucka, Liu et al. REF anpassar den ursprungliga Skyline-definitionen till den nya gruppbaserade Skyline (G-Skyline), som representerar Pareto optimala grupper som inte domineras av andra grupper.
15,089,060
Finding Pareto Optimal Groups: Group-based Skyline
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
81,867
Ekologiska momentana insatser (EMI) blir mer populära och kraftfullare resurser för behandling och förebyggande av depression och ångest på grund av framsteg i teknisk kapacitet och analytisk förfining. Tidigare arbete har visat att EMI kan vara effektivt för att minska symptom på depression och ångest samt relaterade resultat av stress och för att öka positiv psykologisk funktion. I denna översyn lyfter vi fram skillnaderna mellan EMI och andra former av behandling på grund av EMI:s natur som skall integreras djupt i människornas dagliga liv. EMI kräver unika överväganden i sin utformning, utplacering och utvärdering. Dessutom, med tanke på att EMI har avancerats genom förändringar i teknik och att användningen av beteendeinterventionsteknik för psykisk hälsa har ökat, diskuterar vi hur teknik och analys kan inleda en ny era av EMI. Framtida EMI kan minska användarbördan och öka insatsernas personalisering och sofistikering genom att utnyttja digitala sensorer och framsteg inom bearbetning av naturligt språk och maskininlärning. Även om de nuvarande EMI är effektiva kan framtidens EMI bli mer engagerande, lyhörda och anpassningsbara för olika människor och olika sammanhang.
De har varit effektiva på att minska symptom på depression och ångest, minska resultaten av stress, och öka positiva psykologiska funktion REF.
27,948,957
Ecological momentary interventions for depression and anxiety
{'venue': 'Depression and anxiety', 'journal': 'Depression and anxiety', 'mag_field_of_study': ['Medicine', 'Psychology']}
81,868
Under de senaste åren har hashing fått allt större uppmärksamhet på grund av sin överlägsna kapacitet med låga lagringskostnader och hög frågeeffektivitet vid storskalig gränsöverskridande hämtning. Man har kunnat dra nytta av djupt lutande och ständigt övertygande resultat i den tvärmodala återvinningsgemenskapen. Befintliga korsmodala hashmetoder bygger dock antingen på mängder av märkt information eller har ingen förmåga att lära sig ett exakt samband mellan olika metoder. I detta dokument föreslog vi oöverträffade sammankopplade cykelgenerativa kontrariska Hashing-nätverk (ACH), för cross-modal hämtning, där yttre cykelnätverk används för att lära sig kraftfull gemensam representation, och inre cykelnätverk förklaras för att generera tillförlitliga hash-koder. Specifikt, vår föreslagna MYCKET sömlöst par dessa två nätverk med generativ kontradiktorisk mekanism, som kan optimeras samtidigt för att lära sig representation och hash koder. Omfattande experiment på tre populära referensdatauppsättningar visar att de föreslagna UKH överträffar de senaste oövervakade korsmodala hashmetoderna.
MYCKET REF är en cross-modal hämtningsmetod, där det yttre cykelnätet används för att lära sig kraftfull gemensam representation och det inre cykelnätet förklaras generera tillförlitliga hashkoder.
57,972,241
Coupled CycleGAN: Unsupervised Hashing Network for Cross-Modal Retrieval
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,869
Vi föreslår en ny enhet deambiguation modell, baserad på Deep Neural Network (DNN). Istället för att använda enkla likhetsåtgärder och deras separata kombinationer optimerar vår metod direkt dokument- och enhetsrepresentationer för ett givet likhetsmått. Stackade Denoising Auto-kodare används först för att lära sig en första dokumentrepresentation i ett oövervakat förutbildningsstadium. En övervakad finjusteringssteg följer för att optimera representationen mot likhetsmåttet. Experimentella resultat visar att vår metod uppnår toppmodern prestanda på två offentliga dataset utan några manuellt utformade funktioner, även slå komplexa kollektiva metoder.
REF undersöker Stacked Denoising Auto-kodare för att lära sig enhetsrepresentation.
7,512,771
Learning Entity Representation for Entity Disambiguation
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,870
Ett antal papper har undersökt sambanden mellan designmått och upptäckt av fel i objektorienterad programvara. Flera av dessa studier har visat att sådana modeller kan vara korrekta när det gäller att förutsäga felaktiga klasser inom en viss programvaruprodukt. I praktiken bygger dock förutsägelsemodeller på vissa produkter som ska användas vid efterföljande programvaruutvecklingsprojekt. Hur exakta kan dessa modeller vara med tanke på de oundvikliga skillnader som kan finnas mellan projekt och system? Organisationer lär sig och förändras. Mer allmänt sett, kan vi få bevis för att sådana modeller är ekonomiskt bärkraftiga verktyg för att fokusera validerings- och kontrollinsatser? Detta dokument försöker besvara dessa frågor med hjälp av fel- och designdata som samlats in på två medelstora Java-system som utvecklats i samma miljö. Ett annat bidrag av papperet är användningen av en ny undersökande analysteknik (MARS) för att bygga sådana felbenägenhet modeller, vars funktionella form är en priori okänd. Resultaten visar att en modell byggd på ett system kan användas korrekt för att rangordna klasser inom ett annat system beroende på deras felbenägenhet. Nackdelen är dock att de förutsagda felsannolikheterna på grund av systemskillnader inte är representativa för det system som förutses. Dessutom visar en kostnads-nyttomodell att MARS-modellen är potentiellt lönsam ur ekonomisk synvinkel. Den linjära modellen är inte det, vilket tyder på en mer komplex modell krävs. INLEDNING Åtgärder för strukturella konstruktionsegenskaper såsom koppling eller komplexitet anses allmänt vara indikatorer för externa systemkvalitetsattribut, t.ex. tillförlitlighet eller underhållbarhet. Många åtgärder som tar hänsyn till objektorienterade systems strukturella egenskaper föreslogs i litteraturen [1] [8] [6]. Ett antal fallstudier har gett empiriska belägg för att med hjälp av regressionsanalysmetoder kan mycket noggranna prediktionsmodeller för klassfelbenägenhet byggas från befintliga OO-utformningsåtgärder [4] [5]. Noggrannheten hos prediktionsmodellerna i dessa studier kvantifieras vanligen genom ett mått på godheten hos modellernas förutsägelser till de faktiska feluppgifterna, eller genom att använda korsvalideringsmetoder inom systemet, såsom V-korsvalidering [13]. Syftet med att bygga sådana modeller är att tillämpa dem på andra system (t.ex. olika system som utvecklats i samma utvecklingsmiljö) för att fokusera verifierings- och valideringsarbetet på felskyddade delar av dessa system. Men man vet inte mycket om exaktheten i förutsägelsemodeller när de faktiskt tillämpas under realistiska förhållanden. I det avseendet kan de befintliga studierna till största delen karakteriseras som genomförbarhetsstudier. I den här artikeln bygger vi en felbenägenhetsförutsägelsemodell baserad på en uppsättning OO-åtgärder med hjälp av data som samlats in från ett mellanstort Java-system, och sedan applicerar vi modellen på ett annat Java-system som utvecklats av samma team. Vi utvärderar sedan exaktheten i modellens förutsägelse i det systemet och modellens ekonomiska bärkraft med hjälp av en kostnads-nyttomodell. Ett andra mål är att använda en ny experimentell, regressionsbaserad teknik som kallas MARS (Multivariat Adaptive Regression Splines [11]). Vi undersöker om denna teknik kan resultera i mer exakta felbenägenhetsmodeller än typiska logistiska regressionsmodeller som antar ett linjärt samband mellan kovariater och logittermen. Modell funktionella former är svåra att fastställa en priori eftersom vi inte har trovärdiga, exakta teorier för att utforma dem. Resultaten visar att en modell byggd på ett system kan användas för att korrekt rangordna klasser inom ett annat system beroende på deras felbenägenhet. Endast MARS-modellen är dock korrekt, medan den linjära logistiska regressionsmodellen inte verkar lämplig. En kostnads-nyttomodell visar att en sådan felbenägenhetsmodell är potentiellt lönsam eftersom den kan ge tydliga fördelar. Sannolikheten för en modell som bygger på ett system som tillämpas på ett annat tyder dock på att skillnader i systemfaktorer gör dessa sannolikheter meningslösa, även om klassrankningen bevaras. Med andra ord, om detta bekräftas, skulle sådana modellers sannolikheter behöva kalibreras för varje system. Konsekvenserna av sådana begränsningar diskuteras nedan. Papperet är uppbyggt på följande sätt: I avsnitt 2 beskrivs studiens utformning. I avsnitt 3 redogör vi kortfattat för vår analysmetod och introducerar modelleringsteknik, logistisk regression och MARS. Analysresultaten beskrivs i avsnitt 4 och vi drar våra slutsatser i avsnitt 5.
Briand m.fl. REF använde logistisk regression och MARS-modeller för att lära sig en felprediktor, som också är det tidigaste arbetet med CCDP.
10,641,523
Assessing the Applicability of Fault-Proneness Models Across Object-Oriented Software Projects
{'venue': 'IEEE Trans. Software Eng.', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,871
Vi presenterar OctNet, en representation för djupinlärning med sparsam 3D-data. I motsats till befintliga modeller möjliggör vår representation 3D-konvolutionella nätverk som är både djupa och högupplösta. Mot detta mål utnyttjar vi glesheten i inmatningsdatan för att hierarkiskt dela upp utrymmet med hjälp av en uppsättning obalanserade bläckfiskar där varje bladknuta lagrar en poolad funktionsrepresentation. Detta gör det möjligt att fokusera minnesallokering och beräkning till relevanta täta regioner och möjliggör djupare nätverk utan att kompromissa med upplösningen. Vi demonstrerar nyttan av vår OctNet representation genom att analysera effekterna av upplösning på flera 3D uppgifter inklusive 3D objektklassificering, orienteringsuppskattning och punktmoln märkning. 6620 naivt. Vi illustrerar detta på bild. 1 för ett 3D-klassificeringsexempel. Med tanke på 3D-maskorna på [47] voxeliserar vi inmatningen med en upplösning på 64 3 och utbildar ett enkelt 3D-konvolutionsnätverk för att minimera en klassificeringsförlust. Vi skildrar maximum av svaren över alla funktionskartor på olika lager av nätverket. Det är lätt att observera att höga aktiveringar endast sker nära objektets gränser. Motiverade av denna iakttagelse, föreslår vi OctNet, ett 3D-konvolutionsnätverk som utnyttjar denna gleshet egendom. Vårt OctNet delar hierarkiskt upp 3D-utrymmet i en uppsättning obalanserade bläckfiskar [31]. Varje bläckfisk delar 3D-utrymmet i enlighet med datatätheten. Mer specifikt, vi rekursivt split oktree noder som innehåller en datapunkt i sin domän, dvs 3D-punkter, eller mesh trianglar, stannar vid den finaste upplösningen av trädet. Därför varierar bladknutor i storlek, t.ex. kan en tom bladknuta bestå av upp till 8 3 = 512 voxlar för ett träd på djup 3 och varje bladknuta i bläckfisken lagrar en poolad sammanfattning av alla funktionsaktiveringar av den voxel den består av. Konvolutionsnätets verksamhet definieras direkt på dessa träds struktur. Därför fokuserar vårt nätverk dynamiskt på beräknings- och minnesresurser, beroende på indatans 3D-struktur. Detta leder till en betydande minskning av kraven på beräkning och minne vilket möjliggör djupt lärande vid höga upplösningar. Viktigt är att vi också visar hur viktiga nätverksoperationer (convolution, pooling eller unpooling) effektivt kan implementeras på denna nya datastruktur. Vi visar nyttan av den föreslagna OctNet på tre olika problem med tredimensionella data: 3D-klassificering, 3D-orientering uppskattning av okända objekt instanser och semantisk segmentering av 3D-punktmoln. I synnerhet visar vi att den föreslagna OctNet möjliggör betydande högre ingångsupplösningar jämfört med täta ingångar på grund av dess lägre minnesförbrukning, samtidigt som samma prestanda uppnås jämfört med motsvarande täta nätverk vid lägre upplösning. Samtidigt får vi betydande uppfarter vid resolutioner på 128 3 och över. Med hjälp av vårt OctNet, undersöker vi effekterna av hög upplösning ingångar wrt. noggrannhet i de tre uppgifterna och visa att högre upplösning är särskilt fördelaktigt för orienteringsuppskattning och semantisk punktmoln märkning. Vår kod finns tillgänglig från projektets hemsida 2.
För att möjliggöra 3D-konvolutionella nätverk, OctNet REF bygga en hierarkiskt partition av utrymmet genom att generera en uppsättning obalanserade bläckfiskar i de vanliga rutnäten, där varje blad nod lagrar en poolad funktion representation.
206,596,552
OctNet: Learning Deep 3D Representations at High Resolutions
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
81,872
Abstrakt. I detta dokument beskrivs en teknik för att förbättra uppdelningen av problem på nivån för domänmodellering. Ett bidrag till detta nya tillvägagångssätt är uppbyggnaden av stödverktyg som underlättar höjningen av övergripande modelleringsbehov för förstklassiga konstruktioner i ett typsystem. Nyckelidén är att tillämpa en variant av OMG Object Constraint Language på modeller som lagras kontinuerligt i XML. Med detta tillvägagångssätt genereras vävare från domänspecifika beskrivningar för att hjälpa en modellerare att utforska olika alternativa modellering scenarier. I dokumentet undersöks flera aspekter av Aspect-Oriented Domain Modeling (AODM), bland annat: domänspecifika modellvävare, ett språk för att stödja problemseparering, en översikt över kodgenereringsfrågor inom ett meta-vävarramverk, och en jämförelse mellan AODM och AOP. Ett exempel på metoden ges, samt en beskrivning av flera framtida koncept för att utöka flexibiliteten inom AODM.
Gray, J. föreslog en teknik av aspekt-orienterad domän modellering (AODM) REF som antog Generic Modeling Environment (GME), en meta-konfigurerbar modellering ram.
169,019
An Approach for Supporting Aspect-Oriented Domain Modeling
{'venue': 'in Proceedings of the Second International Conference on Generative Programming and Component Engineering, LNCS 2830', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,873
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
Snabbare R-CNN REF kombinerar mekanismen för regionförslag och en CNN-klassificering inom ett enda nätverk genom att införa ett nätverk för regionförslag.
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
81,874
Abstract-This paper undersöka upplänk uppnåeliga hastigheter av massiva multi-input multiple-output (MIMO) antennsystem i Ricean blekning kanaler, med hjälp av maximal-ratio kombinerar (MRC) och noll-forcing (ZF) mottagare, antar perfekt och ofullständig kanal state information (CSI). I motsats till tidigare relevanta verk, antas den snabbt bleknande MIMO-kanalmatrisen ha en godtyckligt rankad deterministisk komponent samt en Rayleigh-distribuerad slumpmässig komponent. Vi härleder dragbara uttryck för den uppnåeliga upplänkhastigheten i den stora antenngränsen, tillsammans med ungefärliga resultat som håller för ett begränsat antal antenner. Baserat på dessa analysresultat får vi den skalningslagstiftning som användarnas sändningskraft ska uppfylla, samtidigt som vi upprätthåller en önskvärd servicekvalitet. I synnerhet, Det finns att oavsett Ricean K-faktor, i fallet med perfekt CSI, approximationer konvergera till samma konstant värde som de exakta resultaten, som antalet basstation antenner, M, växer stor, medan överföringen kraften hos varje användare kan skalas ner proportionellt till 1/M. Om CSI uppskattas med osäkerhet, samma resultat gäller men bara när Ricean K-faktorn är icke-noll. Annars, om kanalen upplever Rayleigh blekning, kan vi bara skära överföringseffekten för varje användare proportionellt till 1/ ε M. Dessutom visar vi att med en ökande Ricean K-faktor, kommer upplänken hastigheter att konvergera till fasta värden för både MRC och ZF mottagare.
Med en godtycklig rank deterministisk komponent, uttryck under perfekt eller ofullständig CSI för upplänk uppnåeliga nivåer härleddes i REF.
7,191,540
Power Scaling of Uplink Massive MIMO Systems with Arbitrary-Rank Channel Means
{'venue': 'IEEE Journal of Selected Topics in Signal Processing', 'journal': 'IEEE Journal of Selected Topics in Signal Processing', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,875
Abstrakt. För att minska de negativa miljöeffekterna (t.ex. koldioxidutsläpp och global uppvärmning) som orsakas av den snabbt ökande energiförbrukningen har många Internettjänsteoperatörer börjat ta olika initiativ för att driva sina molnbaserade datacenter med förnybar energi. Tyvärr, på grund av den intermittenta karaktären av förnybara energikällor som vindkraftverk och solpaneler, är för närvarande förnybar energi ofta dyrare än brun energi som produceras med konventionella fossilbaserade bränsle. Till följd av detta kan användningen av förnybar energi innebära ett stort tryck på Internettjänsteoperatörernas ibland stränga driftsbudgetar. Därför är två nyckelfrågor som många molntjänstoperatörer står inför 1) hur man dynamiskt distribuerar serviceförfrågningar mellan datacenter på olika geografiska platser, baserat på lokala väderförhållanden, för att maximera användningen av förnybar energi, och 2) hur man gör det inom deras tillåtna driftsbudgetar. I detta dokument, föreslår vi GreenWare, en ny middleware system som genomför dynamisk begäran leverans för att maximera andelen förnybar energi som används för att driva ett nätverk av distribuerade datacenter, med förbehåll för den önskade kostnadsbudgeten för Internet-tjänsteoperatören. Vår lösning modellerar först explicit den intermittenta produktionen av förnybar energi, t.ex. vindkraft och solkraft, med avseende på varierande väderförhållanden i det geografiska läget för varje datacenter. Vi formulerar sedan det centrala målet för GreenWare som ett begränsat optimeringsproblem och föreslår en effektiv begäran leveransalgoritm baserad på linjär-fraktions programmering (LFP). Vi utvärderar GreenWare med verkliga väder, elpris och arbetsbelastning spår. Våra experimentella resultat visar att GreenWare avsevärt kan öka användningen av förnybar energi i molnbaserade datacenter utan att bryta mot den önskade kostnadsbudgeten, trots intermittenta leveranser av förnybar energi på olika platser och tidsvarierande elpriser och arbetsbelastningar.
Zhang m.fl. REF föreslog GreenWare, ett mellanprogramssystem som dynamiskt skickar transaktionsförfrågningar till distribuerade datacenter för att maximera användningen av grön energi inom den tillåtna driftsbudgeten.
977,258
Greenware: Greening cloud-scale data centers to maximize the use of renewable energy
{'venue': 'of Lecture Notes in Computer Science', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,876
Abstract-Far-field mikrovågsöverföring (MPT) kommer att frigöra trådlösa sensorer och andra mobila enheter från de begränsningar som ändliga batterikapaciteter medför. Genom att integrera MPT med trådlös kommunikation för att stödja samtidig trådlös information och kraftöverföring (SWIPT) kan samma spektrum användas för dubbla ändamål utan att tjänstens kvalitet äventyras. En ny metod presenteras i detta dokument för att förverkliga SWIPT i ett bredbandssystem där ortogonal frekvensdivision multiplexing och överföring strålformning används för att skapa en uppsättning parallella underkanaler för SWIPT, vilket förenklar resursallokering. Baserat på en föreslagen omkonfigurerbar mobil arkitektur beaktas olika systemkonfigurationer genom att kombinera enanvändares/fleranvändares system, informationsöverföring via nedlänk/upplänk och variabla/fasta kodningshastigheter. Optimering av effektstyrningen för dessa konfigurationer resulterar i en ny klass av fleranvändarproblem med strömförsörjningsbegränsningar, med specificering av att den överförda effekten måste vara tillräckligt stor för att stödja driften av mottagarkretsen. Att lösa dessa problem ger en uppsättning kraftkontrollalgoritmer som utnyttjar kanalmångfald i frekvens för att samtidigt förbättra genomströmningen och MPT-effektiviteten. För systemkonfigurationer med variabla kodningshastigheter är algoritmerna varianter av vattenfyllning som tar hänsyn till strömkretsens begränsningar. De optimala algoritmerna för de konfigurationer med fasta kodningshastigheter visas för att sekventiellt fördela mobiler deras erforderliga kraft för avkodning i stigande ordning tills hela den budgeterade kraften spenderas. Den effekt som krävs för en mobil härleds som enkla funktioner för minsta signal-till-brusförhållande för korrekt avkodning, kretsens effekt och delkanalvinster.
Huang m.fl. utplacerade den ortogonala frekvensdivisionen multiplexing (OfDM) och sända strålformning för SWIPT i ett bredbandssystem REF.
9,513,610
Simultaneous Information and Power Transfer for Broadband Wireless Systems
{'venue': None, 'journal': 'arXiv: Information Theory', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,877
Abstract-Shake Them All är ett populärt "Wallpaper" program som överstiger miljontals nedladdningar på Google Play. Vid installationen, denna ansökan ges tillstånd till (1) tillgång till Internet (för uppdatering tapeter) och (2) använda enheten mikrofon (för att ändra bakgrund efter bullerförändringar). Med dessa behörigheter kunde programmet tyst spela in användarkonversationer och ladda upp dem på distans. För att ge mer förtroende om hur Shake Them All faktiskt behandlar vad den registrerar, är det nödvändigt att bygga ett exakt analysverktyg som spårar flödet av alla känsliga data från dess källa till någon diskho, särskilt om de är i olika komponenter. Eftersom Android-program kan läcka privat data vårdslöst eller illvilligt, föreslår vi IccTA, en statisk fläckanalysator för att upptäcka integritet läckor bland komponenter i Android-program. IccTA går längre än de senaste metoderna genom att stödja interkomponentdetektering. Genom att sprida kontextinformation mellan olika komponenter förbättrar IccTA analysens precision. IccTA överträffar befintliga verktyg på två riktmärken för ICC-läckdetektorer: DroidBench och ICC-Bench. Dessutom upptäcker vår strategi 534 ICC läcker i 108 appar från MalGenome och 2 395 ICC läcker i 337 appar i en uppsättning av 15 000 Google Play-appar.
IccTA REF analyserar interkomponentkommunikation i Android-applikationer.
4,834,658
IccTA: detecting inter-component privacy leaks in Android apps
{'venue': "ICSE '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,878
I tillämpningar inom vetenskap och teknik står man ofta inför utmaningen att lösa ett illaplacerat inverst problem, där antalet tillgängliga mätningar är mindre än storleken på den modell som ska uppskattas. Men i många praktiska situationer av intresse begränsas modellerna strukturellt så att de bara har ett fåtal grader av frihet i förhållande till sin omgivningsdimension. Detta dokument ger en allmän ram för att omvandla begrepp om enkelhet till konvexa strafffunktioner, vilket resulterar i konvexa optimeringslösningar till linjära, underbestämda inversa problem. Den klass av enkla modeller som beaktas är de som bildas som summan av några atomer från vissa (eventuellt oändliga) elementära atomer; exempel inkluderar välstuderade fall såsom glesa vektorer (t.ex. signalbehandling, statistik) och lågrankade matriser (t.ex. kontroll, statistik), samt flera andra inklusive summor av några permutationer matriser (t.ex. rangordnade val, multiobject tracking), lågrankade tensorer (t.ex. datorseende, neurovetenskap), ortogonala matriser (t.ex. maskininlärning) och atomära åtgärder (t.ex. systemidentifiering). Konvex programmeringsformuleringen är baserad på att minimera normen som induceras av konvexa skrov av atomuppsättningen; denna norm kallas atomnormen. Ansiktsstrukturen av atomnormkulan bär ett antal gynnsamma egenskaper som är användbara för att återvinna enkla modeller, och en analys av den underliggande konvex geometri ger skarpa uppskattningar av antalet generiska mätningar som krävs för exakt och robust återvinning av modeller från partiell information. Dessa uppskattningar bygger på att beräkna Gaussian bredder av tangentkottar till atomnorm bollen. När atomuppsättningen har algebraisk struktur kan de resulterande optimeringsproblemen lösas eller approximeras via semidefinit programmering. Kvaliteten på dessa approximationer påverkar antalet mätningar som krävs för återhämtning, och denna avvägning kännetecknas av några exempel. Detta arbete utökar katalogen av enkla modeller (bortom glesa vektorer och lågrankade matriser) som kan återvinnas från begränsad linjär information via dragbar konvex programmering.
al REF gav en allmän behandling av = 1 fallet med hjälp av Gaussian bredd analys.
51,052
The Convex Geometry of Linear Inverse Problems
{'venue': 'Foundations of Computational Mathematics, Vol. 12, No. 6, pp. 805-849, 2012', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,879
Vi undersöker utvärderingsmått för dialogsvarsgenereringssystem där övervakade etiketter, t.ex. uppgiftskomplettering, inte finns tillgängliga. Nya verk i svarsgenerering har antagit mätvärden från maskinöversättning för att jämföra en modells genererade svar på ett enda mål svar. Vi visar att dessa mått korrelerar mycket svagt med mänskliga bedömningar i den icke-tekniska Twitter-domänen, och inte alls i den tekniska Ubuntu-domänen. Vi tillhandahåller kvantitativa och kvalitativa resultat som belyser specifika svagheter i befintliga mätvärden och ger rekommendationer för framtida utveckling av bättre automatiska mätvärden för dialogsystem.
REF visar att dessa mätvärden antingen uppvisar ett svagt eller inget samband med mänskliga bedömningar.
9,197,196
How NOT To Evaluate Your Dialogue System: An Empirical Study of Unsupervised Evaluation Metrics for Dialogue Response Generation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,880
Nuvarande webbsökmotorer är byggda för att betjäna alla användare, oberoende av behoven hos varje enskild användare. Personligisering av webbsökning är att utföra hämtning för varje användare som införlivar sina intressen. Vi föreslår en ny teknik för att kartlägga en användarfråga till en uppsättning kategorier, som representerar användarens sökning intention. Denna uppsättning kategorier kan fungera som ett sammanhang för att disambiguera orden i användarens fråga. En användarprofil och en allmän profil hämtas från användarens sökhistorik respektive kategorihierarki. Dessa två profiler kombineras för att kartlägga en användarfråga i en uppsättning kategorier. Flera inlärnings- och kombinationsalgoritmer utvärderas och bedöms vara effektiva. Bland algoritmerna för att lära sig en användarprofil väljer vi Rocchio-baserad metod för dess enkelhet, effektivitet och förmåga att vara anpassningsbar. Experimentella resultat visar att vår teknik för att anpassa webbsökning är både effektiv och effektiv.
Liu m.fl. REF föreslog en modell för att kartlägga en användares fråga till en uppsättning kategorier för att upptäcka användarens avsikt att söka.
7,227,804
Personalized web search by mapping user queries to categories
{'venue': "CIKM '02", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,881
Sammanfattning av denna webbsida: Geospatial objektdetektering från fjärranalysbilder med hög rumslig upplösning (HSR) är ett betydande och utmanande problem vid vidareanalys av objektrelaterad information för civila och tekniska tillämpningar. Beräkningseffektiviteten och den separata regiongenerationen och lokaliseringsstegen är dock två stora hinder för prestandaförbättringen av de traditionella konvolutionella neurala nätverken (CNN)-baserade objektdetekteringsmetoder. Även om nya metoder för objektdetektering baserade på CNN kan extrahera funktioner automatiskt, dessa metoder fortfarande separera funktionen extraktion och detektion stadier, vilket resulterar i hög tidsförbrukning och låg effektivitet. Som en betydande påverkansfaktor kräver förvärv av en stor mängd manuellt annoterade prover för HSR fjärranalysobjekt experterfarenhet, vilket är dyrt och otillförlitligt. Trots de framsteg som gjorts i fälten för upptäckt av naturliga bildobjekt, gör den komplexa objektdistributionen det svårt att direkt hantera uppgiften för upptäckt av HSR-avkänning av objekt. För att lösa ovanstående problem, en mycket effektiv och robust integrerad geospatial objekt detektion ram baserad på snabbare region-baserade konvolutionella neurala nätverk (Faster R-CNN) föreslås i detta dokument. Den föreslagna metoden förverkligar det integrerade förfarandet genom att dela funktionerna mellan genereringsstadiet för det regionala förslaget och detekteringsstadiet för objektet. Dessutom används en förträningsmekanism för att förbättra effektiviteten i flerklassig geospatial objektdetektering genom att överföra lärande från den naturliga bilddomänen till fjärranalysdomänen HSR. Omfattande experiment och omfattande utvärderingar av allmänt tillgängliga data för upptäckt av objekt i 10 klasser genomfördes för att utvärdera den föreslagna metoden.
Han höjer en effektiv ram baserad på Snabbare R-CNN REF som förverkligar integrationsprocessen av regionala förslagsgenereringsstadiet och RCNN-stadiet genom att dela funktioner i regionens förslagsgenereringsstadium och RCNN-stadiet.
40,498,115
An Efficient and Robust Integrated Geospatial Object Detection Framework for High Spatial Resolution Remote Sensing Imagery
{'venue': 'Remote Sensing', 'journal': 'Remote Sensing', 'mag_field_of_study': ['Geology', 'Computer Science']}
81,882
Fasändringsminnet (PCM) har framträtt som en lovande kandidat till huvudminne med låg effekt för att ersätta DRAM. De viktigaste problemen med PCM är att skriver är mycket långsammare och mer makt hungriga än läser, skriva bandbredd är mycket lägre än läsa bandbredd, och begränsad skriv uthållighet. Att lägga till ett extra lager av cache, som logiskt sett är den sista nivåns cache (LLC), kan minska nackdelarna med PCM. Men, tillbakaskrivningar från LLC kan (a) överväldiga den begränsade PCM skriva bandbredd och fördröja programmet, (b) förkorta livslängd, och (c) öka energiförbrukningen. Cache partitionering och ersättningssystem är viktiga för att uppnå hög genomströmning för flerkärniga system. Vi noterade dock att ingen befintlig delnings- och ersättningspolicy tar hänsyn till avskrivningsinformationen. I detta dokument föreslås två backback-aware system för att hantera LLC för PCM huvudsakliga minnessystem. Writeback-aware Cache Partitioning (WCP) är en runtime mekanism som partitionerar en delad LLC bland flera program. Till skillnad från tidigare delningsprogram, anser vårt system att minskningen av cache missar såväl som rewbacks. Write Queue Balancing (WQB) ersättningspolicy hanterar cachepartitionen av varje program intelligent så att rewbacks fördelas jämnt mellan PCM skriva köer. På detta sätt, program sällan stanna på grund av obalanserad PCM skriva trafik bland skriva köer. Vår utvärdering visar att WCP och WQB i genomsnitt resulterar i 21% förbättring av genomströmningen, 49% minskning av PCM skriver, och 14% minskning av energi över en toppmodern cache partitionering system.
Write-back-aware cache partitioning (WCP) och write-queue balance (WQP) ersättningspolicy är utformade för att partition cache till olika kärnor för att minska rewbacks REF.
18,175,111
Writeback-aware partitioning and replacement for last-level caches in phase change main memory systems
{'venue': 'TACO', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,883
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
Snabbare-RCNN REF införlivade ett regionförslagsnätverk och RoI-pooling för att gemensamt generera och klassificera regionförslag med ett enda nätverk, vilket resulterade i en stor förbättring av noggrannheten och effektiviteten.
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
81,884
I detta dokument visar vi ett antagande som publicerades 1989 och även delvis tar upp ett öppet problem som tillkännagavs vid konferensen om lärandeteori (COLT) 2015. För en förväntad förlust funktion av en djup icke-linjär neurala nätverk, Vi bevisar följande uttalanden under självständighet antagande antagits från nyligen arbete: 1) funktionen är icke-konvex och icke-konkav, 2) varje lokalt minimum är ett globalt minimum, 3) varje kritisk punkt som inte är ett globalt minimum är en sadelpunkt, och 4) egenskapen sadelpunkter skiljer sig för grunda nätverk (med tre lager) och djupare nätverk (med mer än tre lager). Dessutom bevisar vi att samma fyra påståenden håller för djupa linjära neurala nätverk med alla djup, alla bredder och inga orealistiska antaganden. Som ett resultat av detta presenterar vi ett exempel som vi kan besvara på följande fråga: Hur svårt är det att direkt träna en djupgående modell i teorin? Det är svårare än de klassiska maskininlärning modeller (på grund av den icke-konvexitet), men inte alltför svårt (på grund av avsaknaden av fattiga lokala minima och egendom sadeln punkter). Vi konstaterar att även om vi har avancerat den teoretiska grunden för djupt lärande, finns det fortfarande en klyfta mellan teori och praktik.
REF visar att varje lokalt minimum i ickelinjära nät är globalt baserat på liknande antaganden.
1,605,269
Deep Learning without Poor Local Minima
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,885
De flesta av de översta som utför åtgärdsigenkänning metoder använder optiskt flöde som en "svart låda" ingång. Här tar vi en djupare titt på kombinationen av flöde och åtgärdsigenkänning, och undersöker varför optiskt flöde är till hjälp, vad som gör en flödesmetod bra för åtgärdsigenkänning, och hur vi kan göra det bättre. I synnerhet undersöker vi effekten av olika flödesalgoritmer och indatatransformationer för att bättre förstå hur dessa påverkar en toppmodern åtgärdsigenkänningsmetod. Dessutom finjusterar vi två neurala nätverksflödesmetoder end-to-end på den mest använda igenkänningsdatauppsättningen (UCF101). Baserat på dessa experiment, gör vi följande fem observationer: 1) optiskt flöde är användbart för åtgärdsigenkänning eftersom det är invariant till utseende, 2) optiska flödesmetoder optimeras för att minimera slutpunkt-terror (EPE), men EPE av aktuella metoder är inte väl korrelerad med åtgärdsigenkänning prestanda, 3) för de flödesmetoder som testats, noggrannhet vid gränser och vid små förskjutningar är mest korrelerad med åtgärdsigenkänning prestanda, 4) utbildning optiskt flöde för att minimera klassificering fel i stället för att minimera EPE förbättrar igenkännande prestanda, och 5) optiskt flöde lärt för uppgiften att åtgärdsigenkänning skiljer sig från traditionellt optiskt flöde särskilt inuti människokroppen och vid gränsen för kroppen. Dessa observationer kan uppmuntra forskare inom optiskt flöde att se bortom EPE som ett mål och vägleda forskare att söka bättre motionslinjer, vilket leder till en bättre integrering av det optiska flödet och igenkänningsgrupper för åtgärder.
Många forskare ansåg intuitivt att temporalinformationen som gömmer sig i optiskt flöde är ansvarig för framgången med optiskt flöde fram till Laura et al. REF visar med ett stort antal experiment att det är variationen till utseendet av representationen som berättigar det optiska flödet sådan prevalens i uppgiften aktivitetsigenkänning.
10,048,082
On the Integration of Optical Flow and Action Recognition
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,886
Den här artikeln handlar om ett märkligt fenomen. Anta att vi har en datamatris, som är superpositionen av en lågvärdig komponent och en gles komponent. Kan vi återställa varje komponent individuellt? Vi bevisar att under vissa lämpliga antaganden, är det möjligt att återvinna både låg-ranka och glesa komponenter exakt genom att lösa ett mycket bekvämt konvext program som kallas Principal Component Pursuit; bland alla möjliga nedbrytningar, helt enkelt minimera en viktad kombination av den nukleära normen och 1 normen. Detta tyder på möjligheten av en principiell strategi för robust huvudkomponentanalys eftersom vår metodik och resultat hävdar att man kan återvinna de viktigaste komponenterna i en datamatris även om en positiv del av dess poster är godtyckligt korrumperade. Detta sträcker sig till den situation där även en bråkdel av posterna saknas. Vi diskuterar en algoritm för att lösa detta optimeringsproblem, och presenterar applikationer inom området videoövervakning, där vår metodik gör det möjligt att upptäcka objekt i en belamrad bakgrund, och inom området ansiktsigenkänning, där det erbjuder ett principfast sätt att ta bort skuggor och speculariteter i bilder av ansikten.
En annan metod för återvinning av både lågvärdiga och glesa komponenter presenteras i REF.
7,128,002
Robust principal component analysis?
{'venue': 'JACM', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,887
Abstract-Många program analyser nytta, både i precision och prestanda, från exakt pekaranalys. En viktig dimension av pekaranalys precision är flödeskänslighet, vilket har visat sig vara användbart för applikationer såsom programverifiering och statisk analys av binär kod, bland många andra. Men flödeskänslig pekaranalys har historiskt sett inte kunnat skala till program med miljoner rader kod. Vi presenterar en ny flödeskänslig pekaranalysalgoritm som är en storleksordning snabbare än den befintliga tekniken, vilket möjliggör för första gången flödeskänslig pekaranalys för program med miljoner rader kod. Vår flödeskänsliga algoritm är baserad på en sparsam representation av programkoden skapad av en iscensatt, flödesokänslig pekaranalys. Vi förklarar hur denna nya algoritm är en medlem av en ny familj av pekaranalysalgoritmer som förtjänar ytterligare studier.
REF tillämpad iscensättning för en flödeskänslig pekaranalys.
6,975,215
Flow-sensitive pointer analysis for millions of lines of code
{'venue': 'International Symposium on Code Generation and Optimization (CGO 2011)', 'journal': 'International Symposium on Code Generation and Optimization (CGO 2011)', 'mag_field_of_study': ['Computer Science']}
81,888
I detta dokument introducerar vi den kombinatoriska auktionsmodellen för resursförvaltning i rutnät. Vi föreslår en kombinatorisk auktionsbaserad resursfördelningsprotokoll där en användare erbjuder ett prisvärde för var och en av de möjliga kombinationer av resurser som krävs för att utföra sina uppgifter. Protokollet innebär en approximationsalgoritm för att lösa det kombinatoriska auktionsproblemet. Vi implementerar det nya protokollet i en simulerad miljö och studerar dess ekonomiska effektivitet och dess effekt på systemets prestanda.
De kombinatoriska auktionsbaserade protokollen för resurstilldelning undersöktes i REF.
12,442,623
Combinatorial auction-based protocols for resource allocation in grids
{'venue': '19th IEEE International Parallel and Distributed Processing Symposium', 'journal': '19th IEEE International Parallel and Distributed Processing Symposium', 'mag_field_of_study': ['Computer Science']}
81,889
ABSTRACT Fuzzy entropy och bildtriming är de mest direkta och effektiva metoderna för bildsegmentering. Detta papper, som tar fuzzy Kapurs entropi som den optimala objektiva funktionen, med modifierad diskret Grey vargoptimizer (GWO) som verktyg, använder pseudotrapezoid-formad för att genomföra fuzzy medlemskap initiera för att uppnå bildsegmentering slutligen med hjälp av lokal informationsaggregation. Experimentresultat visar att den föreslagna fuzzy-baserade GWO och aggregeringsalgoritmen och fuzzy-baserade modifierade diskreta GWO och aggregering (FMDGWOA) algoritm kan söka ut de optimala tröskelvärdena effektivt och exakt. I detta papper är elektromagnetism optimering baserad på Kapurs entropi, standard GWO och fuzzy entropy-baserade differential evolution algoritm experimentellt jämfört med den föreslagna metoden, respektive. Det visar att FMDGWOA har uppenbara fördelar när det gäller segmenteringskvalitet, objektiv funktion och stabilitet.
I vårt tidigare arbete REF tar vi också Discrete Grey Wolf Optimizer (GWO) som verktyg, med fuzzy teori och fuzzy logik för att uppnå bildsegmentering.
5,837,239
Fuzzy Multilevel Image Thresholding Based on Modified Discrete Grey Wolf Optimizer and Local Information Aggregation
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
81,890
En linjär superposition princip av exponentiella vandringsvågor analyseras för Hirota bilinear ekvationer, med ett syfte att konstruera en specifik sub-klass av N-soliton lösningar som bildas av linjära kombinationer av exponentiella vandringsvågor. Tillämpningar görs för 3 + 1 dimensional KP, Jimbo-Miwa och BKP ekvationer, och därmed presentera sina särskilda N-våg lösningar. En motsatt fråga uppstår också och diskuteras om att generera Hirota bilinjära ekvationer som har de angivna N-våg lösningar, och några belysande exempel presenteras, tillsammans med en algoritm med hjälp av vikter.
Ma och Fan REF visade att en linjär superposition princip av exponentiella vågor tillämpas på Hirota bilinear ekvationer, under några ytterligare villkor på exponentiella vågor och möjligen på polynom också.
17,667,305
Linear superposition principle applying to Hirota bilinear equations
{'venue': 'Comput. Math. Appl.', 'journal': 'Comput. Math. Appl.', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,891
Hur man skapar multi-vy bilder med realistiska utseende från endast en vy input är ett utmanande problem. I detta dokument angriper vi detta problem genom att föreslå en ny bildgenereringsmodell som kallas VariGANs, som kombinerar fördelarna med den variationsbaserade inferensen och Generative Adversarial Networks (GANs). Det genererar målbilden på ett grovt till fint sätt i stället för ett enda pass som lider av allvarliga artefakter. Den utför först variabla slutsatser för att modellera det globala utseendet på objektet (t.ex. form och färg) och producerar grova bilder av olika vyer. Konditionerad på de genererade grova bilder, utför den sedan motsatt inlärning för att fylla i detaljer som överensstämmer med inmatningen och generera de fina bilderna. Omfattande experiment utförda på två kläddataset, MVC och DeepFashion, har visat att de genererade bilderna med de föreslagna Varigans är mer rimliga än de som genereras av befintliga metoder, vilket ger mer konsekvent globalt utseende samt rikare och skarpare detaljer.
VAEs och GANs kombineras i REF för att generera realistiska multi-view bilder av kläder från en enda-vy ingångsbild.
3,570,089
Multi-View Image Generation from a Single-View
{'venue': "MM '18", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,892
Abstract-Trajectory base Non-Rigid Structure from Motion (NRSfM) avser processen för att rekonstruera 3D-banan för varje punkt i ett icke-rigid objekt från bara deras 2D projected banor. Ombyggnad bygger på två faktorer: i) tillståndet hos den sammansatta kamera- och banabasmatrisen, och ii) huruvida banans bas har tillräckligt med frihet för att modellera 3D-punktens bana. Dessa två faktorer är i sig motstridiga. Att använda en bana bas med liten kapacitet har den positiva egenskapen att minska sannolikheten för ett dåligt konditionerat system (när den är sammansatt med kameran) under återuppbyggnaden. Detta har dock den negativa egenskapen att öka sannolikheten för att basen inte fullt ut kommer att kunna modellera objektets "sanna" 3D-punktbanor. I detta papper drar vi på ett välkänt resultat centrerar kring den Reducerade Isometry Property (RIP) villkor för gles signal rekonstruktion. RIP gör det möjligt för oss att slappna av kravet på att den fullständiga banan basen som består av kamerans matris måste vara väl konditionerad. Vidare föreslår vi en strategi för att lära sig en överfull bas med hjälp av konvolutionell sparse kodning från naturligt förekommande punktbana corpora för att öka sannolikheten för att översynsperioden villkoret håller för en bred klass av punktbanor och kamerarörelser. Slutligen föreslår vi ett'1 inspirerat mål för bana rekonstruktion som kan "anpassningsbart" välja den minsta sub-matris från en överfullständig bana grund som balanserar (i) och (ii). Vi presenterar mer praktiska 3D-rekonstruktion resultat jämfört med nuvarande toppmoderna i bana bas NRSfM.
Zhu och Lucey REF tillämpade den konvolutionella sparse-kodningstekniken på NRSFM med hjälp av punktbanor.
14,033,735
Convolutional Sparse Coding for Trajectory Reconstruction
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
81,893
Vi överväger hur man tilldela etiketter till någon oriktad graf med n noder sådan att, med tanke på etiketter av två noder och ingen annan information om grafen, det är möjligt att bestämma avståndet mellan de två noderna. Utmaningen i ett sådant avstånd märkning system är främst att minimera den maximala etiketten längd och sekundärt att minimera den tid som behövs för att svara på avstånd frågor (avkodning). Tidigare system har erbjudit olika avvägningar mellan etikettlängder och frågetid. Detta dokument presenterar en enkel algoritm med kortare etiketter och kortare frågetid än någon tidigare lösning, vilket förbättrar state-of-the-art med avseende på både etikettlängd och frågetid i en enda algoritm. Vår lösning tar upp flera öppna problem med etikettlängd och avkodningstid och är den första förbättringen av etikettlängd i mer än tre decennier. Mer specifikt presenterar vi ett avståndsmärkningssystem med etiketter på längdlogg 3 2 n + o(n) bitar 1 och konstant avkodningstid. Detta överträffar alla befintliga resultat med avseende på både storlek och avkodningstid, inklusive Winklers (Combinatorica 1983) tioåriga resultat, som använder etiketter av storlek (log 3)n och O(n/ log n) avkodningstid, och Gavoille et al. (SODA'01), som använder etiketter av storlek 11n + o(n) och O(log log n) avkodningstid. Dessutom är vår algoritm enklare än de tidigare. I fallet med integrerad kant vikter av storlek som mest W, Vi presenterar nästan matchande övre och nedre gränser för etiketten storlek l: 2 n log (2W + 1) + O(log n · log(nW ) ). Dessutom, för r-additive approximation märkningssystem, där avstånd kan vara av med upp till en additiv konstant r, presenterar vi både övre och nedre gränser. I synnerhet presenterar vi en övre gräns för 1-additive approximationssystem som i det oviktade fallet har samma storlek (till skillnad från andra ordertermer) som ett adjacenssystem, nämligen n/2. Vi ger också resultat för bipartitgrafik samt för exakta och 1-additiva avstånd orakel.
Slutligen, Alstrup et al. REF presenterar ett schema för allmänna grafer med avkodning i O(1) med hjälp av etiketter av storlekslog 3 2 n + o(n) bitar.
296,193
Simpler, faster and shorter labels for distances in graphs
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,894
Abstrakt. Funktionskrav skrivs ofta med användningsfall formaterade av textmallar. Detta textbaserade tillvägagångssätt har fördelen att vara lätt att anta, men kraven kan då knappast behandlas för ytterligare ändamål som testgenerering. I detta dokument föreslår vi att automatiskt generera genom en modellomvandling ett aktivitetsschema som modellerar användningsfallsscenariot. Ett sådant aktivitetsschema låter oss gissa i en glimt det globala beteendet i ett användningsfall, och kan lätt bearbetas. Omvandlingen definieras med hjälp av QVT-relationsspråket och illustreras i en fallstudie med hjälp av ett stödverktyg.
I REF föreslår författarna att automatiskt, genom modellomvandlingar, generera en aktivitetsmodell som representerar användningsscenariot från en textmall.
36,067,554
Visualization of Use Cases through Automatically Generated Activity Diagrams
{'venue': 'MoDELS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,895
Klassifikation av musikgenrer, särskilt med enbart texter, är fortfarande ett utmanande ämne i Music Information Retrieval. I denna studie tillämpar vi återkommande neurala nätverksmodeller för att klassificera en stor datauppsättning intakta låttexter. Som texter uppvisar en hierarkisk lagerstruktur-där ord kombineras för att bilda linjer, linjer bildar segment, och segment bildar en komplett låt-vi anpassar ett hierarkiskt uppmärksamhetsnätverk (HAN) för att utnyttja dessa lager och dessutom lära sig betydelsen av ord, linjer och segment. Vi testar modellen över en 117-genre dataset och en reducerad 20-genre dataset. Experimentella resultat visar att HAN överträffar både icke-neurala modeller och enklare neurala modeller, samtidigt som de klassificerar över ett högre antal genrer än tidigare forskning. Genom inlärningsprocessen kan vi också visualisera vilka ord eller linjer i en låt modellen anser vara viktiga för att klassificera genren. Som ett resultat av detta ger HAN insikter, från ett beräkningsperspektiv, i lyrisk struktur och språkfunktioner som skiljer musikaliska genrer.
I REF använde författarna ett hierarkiskt uppmärksamhetsnätverk för att utföra uppgiften i en stor datauppsättning på nästan en halv miljon låttexter, med en noggrannhet på mer än 45 %.
615,781
Lyrics-Based Music Genre Classification Using a Hierarchical Attention Network
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,896
Sammanfattning Låt G = (V, E, w) vara en riktad graf, där w : V → R är en vikt funktion definieras på dess hörn. Flaskhalsens vikt, eller kapaciteten, hos en stig är den minsta vikten av en vertex på stigen. För två hörn u, v kapaciteten från u till v, betecknad av c (u, v), är den maximala flaskhals vikt av en väg från u till v. I All-Pairs Bottleneck Paths (APBP) problem uppgiften är att hitta kapaciteter för alla beställda par av hörn. Vårt huvudsakliga resultat är en O(n 2.575 ) tid algoritm för APBP. Exponenten är härledd från exponenten för snabb matris multiplikation. En variant av vår algoritm beräknar kortaste vägar av maximal flaskhals vikt. Låt d(u, v) betecknar (oviktat) avstånd från u till v, och låt sc (u, v) betecknar den maximala flaskhals vikten av en väg från u till v med längd d (u, v). All-Pairs Bottleneck Shortest Paths (APBSP) problem är att beräkna sc (u, v) för alla beställda par av hörn. Vi presenterar en algoritm för APBSP vars körtid är O(n 2.86 ).
Shapira m.fl. REF föreslog en O(n 2.575 )-tidsalgoritm för en vertex-viktad variant av APBP.
7,985,504
All-Pairs Bottleneck Paths in Vertex Weighted Graphs
{'venue': 'Algorithmica', 'journal': 'Algorithmica', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,897
Abstrakt. Inspirerad av de senaste framgångarna med metoder som använder form tidigare för att uppnå robusta 3D rekonstruktioner, föreslår vi en ny återkommande neurala nätverk arkitektur som vi kallar 3D Recurrent Reconstruction Neural Network (3D-R2N2). Nätverket lär sig en kartläggning från bilder av objekt till deras underliggande 3D-former från en stor samling syntetiska data [1]. Vårt nätverk tar i en eller flera bilder av en objekt instans från godtyckliga synvinklar och resulterar en rekonstruktion av objektet i form av en 3D beläggning rutnät. Till skillnad från de flesta av de tidigare verken kräver vårt nätverk inga bildanteckningar eller objektklassetiketter för utbildning eller testning. Vår omfattande experimentella analys visar att vår rekonstruktionsram i) överträffar de centrala metoderna för ensidig rekonstruktion, och ii) möjliggör 3D-rekonstruktion av objekt i situationer då traditionella SFM/SLAM-metoder misslyckas (på grund av brist på textur och/eller bred baslinje).
Choy m.fl. REF introducerar ett 3D-recidiverande neuralt nätverk (3D-R2N2) baserat på långtidsminne (LSTM) för att förutsäga 3D-formen av ett objekt från en enda vy eller flera vyer.
6,325,059
3D-R2N2: A Unified Approach for Single and Multi-view 3D Object Reconstruction
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,898
Cloud computing erbjuder allmännyttiga IT-tjänster till användare över hela världen. Baserat på en pay-as-you-go modell, möjliggör det att vara värd för omfattande tillämpningar från konsumenter, vetenskapliga, och affärsområden. Datacenter hosting Cloud-applikationer förbrukar dock enorma mängder energi, vilket bidrar till höga driftskostnader och koldioxidavtryck till miljön. Därför behöver vi Green Cloud computing lösningar som inte bara kan spara energi för miljön utan också minska driftskostnaderna. I detta dokument presenteras visioner, utmaningar och arkitektoniska element för energieffektiv hantering av molndatamiljöer. Vi fokuserar på utveckling av dynamiska resursförsörjnings- och tilldelningsalgoritmer som beaktar synergin mellan olika datacenterinfrastrukturer (t.ex. hårdvara, kraftenheter, kylning och programvara) och holistiskt arbetar för att öka datacenterens energieffektivitet och prestanda. I detta dokument föreslås särskilt a) arkitektoniska principer för energieffektiv hantering av moln, b) energieffektiva strategier för resursfördelning och schemaläggningsalgoritmer med beaktande av förväntningarna på tjänsternas kvalitet och anordningarnas egenskaper för strömanvändning, och c) en ny programvaruteknik för energieffektiv hantering av moln. Vi har validerat vår strategi genom att genomföra en rigorös utvärderingsstudie med hjälp av verktygslådan CloudSim. Resultaten visar att Cloud computing-modellen har en enorm potential eftersom den erbjuder betydande resultatvinster när det gäller svarstid och kostnadsbesparingar under dynamiska arbetsbelastningsscenarier.
Buyya m.fl. REF har presenterat sina visioner, utmaningar och arkitektoniska element för energieffektiv hantering av molndatamiljöer med beaktande av QoS förväntningar.
7,482,373
Energy-Efficient Management of Data Center Resources for Cloud Computing: A Vision, Architectural Elements, and Open Challenges
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,899
På senare tid har intresset ökat för automatisk identifiering och utvinning av åsikter, känslor och känslor i texten. Motiveringen till denna uppgift kommer från viljan att tillhandahålla verktyg för informationsanalytiker inom statliga, kommersiella och politiska områden, som vill automatiskt följa attityder och känslor i nyhets- och onlineforum. Vad tycker folk om den senaste tidens händelser i Mellanöstern? Ökar retoriken från en viss oppositionsgrupp? Vilka är de åsikter som uttrycks i världspressen om det bästa tillvägagångssättet i Irak? Ett system som automatiskt skulle kunna identifiera åsikter och känslor från text skulle vara en enorm hjälp för någon som försöker besvara sådana frågor. Forskare från många delområden inom artificiell intelligens och behandling av naturligt språk har arbetat med automatisk identifiering av åsikter och relaterade uppgifter. Hittills har de flesta sådana arbeten fokuserat på känslo- eller subjektivitetsklassificering på dokument- eller straffnivå. I dokumentklassificeringen ingår till exempel att skilja redaktionell information från nyhetsartiklar och att klassificera recensioner som positiva eller negativa. En vanlig uppgift på straffnivå är att klassificera meningar som subjektiva eller objektiva. I detta dokument presenteras ett nytt tillvägagångssätt för känsloanalys på frasnivå som först avgör om ett uttryck är neutralt eller polart och sedan deambiguerar polaritetsuttrycken. Med detta tillvägagångssätt, systemet kan automatiskt identifiera den kontextuella polaritet för en stor del av känslor uttryck, uppnå resultat som är betydligt bättre än baslinje.
T. Wilson, et al., 2005, presenterade en metod för att formulera känslor analys som först avgör om ett uttryck är neutralt eller polart och sedan deambiguerar polaritet av polaruttryck REF.
16,533,102
Recognizing Contextual Polarity in Phrase-Level Sentiment Analysis
{'venue': None, 'journal': 'International Journal of Computer Applications', 'mag_field_of_study': ['Computer Science']}
81,900
Abstract-Behavioral ekonomi säger oss att känslor kan djupt påverka individuellt beteende och beslutsfattande. Gäller detta även för samhällen i stort, dvs. Kan samhällen uppleva stämningstillstånd som påverkar deras kollektiva beslutsfattande? I förlängningen är den allmänna stämningen korrelerad eller till och med prediktiv för ekonomiska indikatorer? Här undersöker vi om mätningar av kollektiva stämningstillstånd som härrör från storskaliga Twitter-flöden är korrelerade till värdet av Dow Jones Industrial Genomsnitt (DJIA) över tid. Vi analyserar textinnehållet i dagliga Twitter-flöden av två stämningsspårningsverktyg, nämligen OpinionFinder som mäter positivt vs. negativt humör och Google-Profile of Mood States (GPOMS) som mäter humör i termer av 6 dimensioner (Kalm, Alert, Sure, Vital, Kind, and Happy). Vi korsvaliderar de resulterande tidsserierna genom att jämföra deras förmåga att upptäcka allmänhetens svar på presidentvalet och Thanksgiving-dagen 2008. En Granger kausalitetsanalys och en Själv-Organizing Fuzzy Neural Network används sedan för att undersöka hypotesen att allmänhetens humörtillstånd, mätt genom opinionsbildare och GPOMS stämningstidsserie, är prediktiva för förändringar i DJIA slutvärden. Våra resultat visar att noggrannheten i DJIA förutsägelser kan förbättras avsevärt genom att inkludera specifika offentliga stämning dimensioner men inte andra. Vi finner en noggrannhet på 87,6% i att förutsäga den dagliga upp och ner förändringar i slutvärdena för DJIA och en minskning av medelvärdet procentfel med mer än 6%. Index Villkor-stock marknadsförutsägelse -twitter -mood analys.
Till exempel Bollen et al. REF undersökte om kollektiva humörtillstånd som härrör från Twitter-flöden är korrelerade till värdet av Down Jones Industrial Genomsnitt (DJIA) över tiden.
14,727,513
Twitter mood predicts the stock market
{'venue': 'Journal of Computational Science, 2(1), March 2011, Pages 1-8', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']}
81,901
Abstract-För att stödja Internets explosiva tillväxt och expansion till ett verkligt integrerat tjänstenätverk finns det ett behov av kostnadseffektiva kopplingstekniker som samtidigt kan ge hög kapacitetsbyte och avancerad QoS. Tyvärr anses dessa två mål till stor del vara motstridiga till sin natur. För att stödja QoS behövs sofistikerade schemaläggningsalgoritmer för paket, såsom Fair Queueing, för att hantera köpunkter. Merparten av den aktuella forskningen i algoritmer för paketplanering förutsätter dock en utdatabuffrad omkopplararkitektur, medan de flesta högpresterande omkopplare (både kommersiella och forskning) är inbuffrade. Även om utdatabuffrade system kan ha önskad servicekvalitet, saknar de den nödvändiga skalbarheten. Inmatningsbuffrade system, medan skalbara, saknar den nödvändiga kvaliteten på servicefunktioner. I detta dokument föreslår vi att man bygger omkopplingssystem som är både in- och utgångsbuffrade, med skalbarheten hos ingångsbuffrade omkopplare och den robusta kvaliteten på servicen hos utgångsbuffrade omkopplare. Vi kallar den resulterande arkitektur Distribuerad Packet Fair Queueing @-PFQ) eftersom det gör det möjligt fysiskt spridda linjekort för att tillhandahålla service som nära liknar en utgångsbuffrad switch med Fair Queueing. Genom att utjämna tillväxten av virtuella tidsfunktioner över switchsystemet kan de flesta av PFQ-algoritmerna i litteraturen definieras korrekt för distribuerad drift. Vi presenterar vårt system med hjälp av en crossbar för switch core, eftersom de används i stor utsträckning i kommersiella produkter och möjliggör den tydligaste presentationen av vår arkitektur. Buffertteknik används för att förbättra systemets latenstolerans, vilket möjliggör användning av rörläggning och varierande paketstorlekar internt. Vårt system är verkligen distribuerat genom att det varken finns en central skiljedomare eller någon global synkronisering. Simuleringsresultat presenteras för att utvärdera fördröjnings- och bandbreddsdelningsegenskaperna hos det föreslagna D-PFQ-systemet.
REF föreslog arkitekturen Distributed Packet Fair Queueing (DPFQ) för fysiskt spridda linjekort för att emulera en OQ-omkopplare med rättvis köning, och simuleringsresultaten visar att det resulterande systemet tillhandahåller service som nära motsvarar en utmatningsbuffrad omkopplare som använder rättvis köning med liten hastighetsökning.
7,907,968
Implementing distributed packet fair queueing in a scalable switch architecture
{'venue': "Proceedings. IEEE INFOCOM '98, the Conference on Computer Communications. Seventeenth Annual Joint Conference of the IEEE Computer and Communications Societies. Gateway to the 21st Century (Cat. No.98", 'journal': "Proceedings. IEEE INFOCOM '98, the Conference on Computer Communications. Seventeenth Annual Joint Conference of the IEEE Computer and Communications Societies. Gateway to the 21st Century (Cat. No.98", 'mag_field_of_study': ['Computer Science']}
81,902
Intersektioner är flaskhalsarna i stadsvägsystemet eftersom en korsnings kapacitet endast utgör en bråkdel av de maximala flöden som vägarna som ansluter sig till korsningen kan bära. Denna kapacitet kan ökas om fordon korsar korsningarna i plutoner snarare än en efter en som de gör idag. Plutonbildning möjliggörs genom uppkopplad fordonsteknik. I detta dokument görs en bedömning av de potentiella fördelarna med rörlighet i samband med platuering. Den hävdar att mättnadsflödena, och därmed skärförmågan, kan fördubblas eller tredubblas genom plutooning. Argumentet stöds av analysen av tre kömodeller och av simuleringen av ett vägnät med 16 korsningar och 73 länkar. Den köande analysen och simuleringarna visar att ett signalerat nätverk med fast tidsstyrning kommer att stödja en ökning av efterfrågan med en faktor på (säg) två eller tre om alla mättnadsflöden ökas med samma faktor, utan någon förändring i kontrollen. Dessutom kommer fordonen, trots den ökade efterfrågan, att drabbas av samma försening och restid. Samma skalförbättring uppnås när den fasta tidskontrollen byts ut mot den högsta adaptiva tryckregleringen. En del av kapacitetsökningen kan alternativt användas för att minska kölängderna och den tillhörande köfördröjningen genom att minska cykeltiden. Brister i kontrollen av anslutna fordon för att uppnå platuering vid korsningar verkar vara små.
Vägkapaciteten kan ökas avsevärt om fordonen bildar plutoner innan de korsar en korsning REF.
108,563,283
Platoons of connected vehicles can double throughput in urban roads
{'venue': None, 'journal': 'arXiv: Dynamical Systems', 'mag_field_of_study': ['Engineering', 'Mathematics']}
81,903
Hittills har relationsextraktionssystem i stor utsträckning använt sig av funktioner som genereras av språkliga analysmoduler. Fel i dessa funktioner leder till fel i relationsdetektering och klassificering. I detta arbete avviker vi från dessa traditionella tillvägagångssätt med komplicerad funktionsteknik genom att införa ett konvolutionellt neuralt nätverk för relationsextraktion som automatiskt lär sig funktioner från meningar och minimerar beroendet av externa verktyg och resurser. Vår modell tar fördelar av flera fönsterstorlekar för filter och förtränade ordinbäddningar som en initializer på en icke-statisk arkitektur för att förbättra prestandan. Vi betonar relationen utvinning problem med en obalanserad corpus. De experimentella resultaten visar att vårt system avsevärt överträffar inte bara de bästa baslinjesystemen för relationsextraktion utan också de toppmoderna systemen för relationsklassificering.
Nguyen och Grishman REF avvek från dessa traditionella metoder med komplicerade funktionsteknik genom att införa ett konvolutionellt neuralt nätverk för relationsextraktion.
12,585,424
Relation Extraction: Perspective from Convolutional Neural Networks
{'venue': 'VS@HLT-NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,904
Klusterbaserad routingteknik är den mest populära routingtekniken i trådlösa sensornätverk (WSN). På grund av varierande behov av WSN applikationer effektiv energianvändning i routing protokoll är fortfarande ett potentiellt forskningsområde. I detta forskningsarbete introducerade vi en ny energieffektiv klusterbaserad routingteknik. I denna teknik försökte vi övervinna problemet med täckning hål och energihål. I vår teknik kontrollerade vi dessa problem genom att införa densitetsstyrda enhetliga fördelning av noder och fastställa optimalt antal klusterhuvuden (CH) i varje runda. Slutligen verifierade vi vår teknik genom experimentella resultat av MAT-LAB simuleringar. Index Terms-energi, effektiv, routing, WSN, statiskt, kluster, hål. Mycket forskning har gjorts för att kontrollera energiutnyttjandet i nätverksskiktet av WSN. Klusterteknik fick stor uppmärksamhet när det gällde att lösa frågan om energiutnyttjande. I klusterteknik samlas data först in och vidarebefordras sedan till basstationen (BS). En enhetlig fördelning av noder och optimalt antal CH i varje omgång hjälper till att styra lastfördelningen i klusterteknik som, i slutändan använder energi effektivt. Som ett andra steg att kontrollera antalet kluster som bildas under nätverksdriften ökar nätverkets stabilitet och livslängd. Ett nätverk sägs vara stabilt om skillnaden mellan första noden dog tid och sista noden dog tid är minimum [1]. Optimalt antal CHs styr inte bara lastfördelningen utan använder också energi på ett effektivt sätt. Ett av problemen med klusterteknik är skapandet av energihål. I slumpmässig fördelning av noder CHs som är överbelastade orsakar skapandet av energihål. I multihop data vidarebefordring teknik, noder nära BS förbrukar stor energi. Dessa områden av noder kallas också hotspots [1]. Energi utarmas snabbt i hotspot-områdena i nätet. W.R. Hienzelman, A.P. Chandrakasan och H. Balakrishnan föreslog LEACH [2]; ett av de första klustring routing protokoll för WSNs. Enligt LEACH algoritm är valet av CH för nuvarande runda probabilistisk. Därför, i detta tillvägagångssätt, av CH urval CH som bildas inte är jämnt fördelade, vilket kan orsaka förekomsten av frånkopplade noder. LEACH-Centraliserad (LEACH-C) är en förlängning av LEACH som föreslås av Balakrishnan, Chandrakasan och Heinzelman [3]. Den plus punkten i denna algoritm är att, BS ser till att nod med mindre energi inte blir CH. Men i storskaliga nätverk, noder långt från BS kan inte skicka sin status till BS. Multihop-LEACH protokoll föreslås av Nauman Israr och Irfan Awan [4]. Multihop-LEACH har huvudsakligen två driftsformer, dvs. multihop-inter-cluster-drift och multihop-intra-kluster-drift. I de ledande operation noderna känner miljön och skicka sina data till CH, dessa data tas emot av BS genom en kedja av CHs, medan den släpande verksamheten utförs i time out period. I båda driftsformerna väljs CH dock slumpmässigt. Detta avtal garanterar inte en fullständig täckning av hela nätet, som det övervakar. W. Jun, och så vidare. [5] föreslog LEACH-selektiv kluster (LEACH-SC). CH val i LEACH-SC är som LEACH. Algoritmen ändrar temat för klusterbildning på ett sådant sätt att noden finner CH närmast mittpunkten mellan sig själv och BS, sedan ansluter sig till kluster. Antalet CH varierar dock i takt med att rundorna fortsätter. Lokaliseringsproblem diskuteras i [6] och [7]. Upphovsmännen delade in nätverksområdet i delområden. Lokaliseringstekniken hjälper till att förbättra täckningshålsproblemet. I detta forskningsarbete introducerar vi en ny klusterteknik för routing lagerkommunikation. I Density controlled Divide-and-Rule (DDR) är noderna jämnt fördelade i nätverket och slumpmässigt fördelade i olika segment av nätverket; för att kontrollera densiteten. På så sätt kan problem med täckningshål undvikas. För det andra i DDR är kluster som bildas statiska och antalet kluster förblir fixerade under nätverksdriften. Antalet kluster som bildas är nära det optimala antalet. Detta bidrar till ett effektivt energiutnyttjande och en enhetlig lastfördelning. Resten av papperet är organiserat på samma sätt som under.
A. Ahmad, et al., REF introducerade en ny routingteknik, Density Controlled Divide-and-Rule (DDR) för trådlösa sensornätverk.
3,894,717
Density Controlled Divide-and-Rule Scheme for Energy Efficient Routing in Wireless Sensor Networks
{'venue': '2013 26th IEEE Canadian Conference on Electrical and Computer Engineering (CCECE)', 'journal': '2013 26th IEEE Canadian Conference on Electrical and Computer Engineering (CCECE)', 'mag_field_of_study': ['Computer Science']}
81,905
Vi presenterar en ny end-to-end neural modell för att extrahera enheter och relationer mellan dem. Vår återkommande neurala nätverk baserad modell fångar både ordsekvens och beroende träd substruktur information genom att stapla dubbelriktade trädstrukturerade LSTM-RNNs på dubbelriktade sekventiella LSTM-RNNs. Detta gör det möjligt för vår modell att gemensamt representera både enheter och relationer med delade parametrar i en enda modell. Vi uppmuntrar vidare upptäckt av enheter under utbildning och användning av enhetsinformation i samband med utvinning via förutbildning och planerad provtagning. Vår modell förbättrar över den senaste funktionen-baserade modellen på end-toend relation extraktion, uppnå 12,1% och 5,7% relativ felminskning i F1-score på ACE2005 respektive ACE2004. Vi visar också att vår LSTM-RNN-baserade modell med fördel kan jämföras med den toppmoderna CNN-baserade modellen (i F1-poäng) för nominell relationsklassificering (SemEval-2010 Task 8). Slutligen presenterar vi en omfattande ablationsanalys av flera modellkomponenter.
REF antog en dubbelriktad träd LSTM-modell för att gemensamt extrahera namngivna enheter och relationer under en beroende trädstruktur.
2,476,229
End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,906
Grafstrukturerade data förekommer ofta inom områden som kemi, semantik, sociala nätverk och kunskapsbaser. I detta arbete studerar vi inlärningstekniker för grafstrukturerade ingångar. Vår utgångspunkt är tidigare arbete på Graph Neural Networks (Scarselli et al., 2009 ), som vi modifierar för att använda gated återkommande enheter och moderna optimeringstekniker och sedan utvidga till utgångssekvenser. Resultatet är en flexibel och allmänt användbar klass av neurala nätverk modeller som har gynnsamma induktiva fördomar i förhållande till rent sekvensbaserade modeller (t.ex. LSTMs) när problemet är graf-strukturerad. Vi demonstrerar kapaciteten på några enkla AI (bAbI) och grafalgoritm lärande uppgifter. Vi visar sedan att det uppnår state-of-the-art prestanda på ett problem från programverifiering, där subgrafer måste beskrivas som abstrakta datastrukturer.
Gated Graph Sequence Neural Networks ändra GNNs för att använda gated återkommande enheter och utgångssekvenser REF.
8,393,918
Gated Graph Sequence Neural Networks
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,907
Djupt lärande har i stort sett utnyttjats av stora molnleverantörer som Google, AWS, Baidu, för att erbjuda olika datorseenderelaterade tjänster, inklusive automatisk bildklassificering, objektidentifiering och olaglig bilddetektering. Även om många av de senaste verken har visat att modeller för klassificering på djupet är sårbara för kontradiktoriska exempel, är molnbaserade tjänster för att upptäcka bilder mer komplexa än klassificering och det finns lite litteratur om kontradiktoriska exempelattacker på detektionstjänster. I denna uppsats fokuserar vi främst på att studera säkerheten hos verkliga molnbaserade bilddetektorer. Specifikt, (1) baserat på effektiv semantisk segmentering, föreslår vi fyra olika attacker för att generera semantik-medvetna kontrariska exempel via endast interagera med black-box API:er; och (2) vi gör det första försöket att genomföra en omfattande empirisk studie av black-box attacker mot verkliga molnbaserade bilddetektorer. Genom utvärderingar på fem populära molnplattformar, inklusive AWS, Azure, Google Cloud, Baidu Cloud och Alibaba Cloud, visar vi att vår IP-attack har en framgångsgrad på cirka 100%, och semantiska segmenteringsbaserade attacker (t.ex. SP, SBLS, SBB) har en framgångsgrad på över 90% bland olika detektionstjänster, såsom våld, politiker och upptäckt av pornografi. Vi diskuterar möjliga försvar för att ta itu med dessa säkerhetsutmaningar i molnbaserade detektorer.
REF gör det första försöket att genomföra en omfattande empirisk studie av black-box attacker mot verkliga molnbaserade bilddetektorer såsom våld, politiker och pornografi upptäckt.
57,572,891
Adversarial Examples versus Cloud-based Detectors: A Black-box Empirical Study
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,908
Abstrakt. Betrakta en uppsättning S av n datapunkter i verkliga d-dimensionella utrymme, R d, där avstånd mäts med hjälp av någon Minkowski metrisk. I närmaste grannsökning, prebehandlar vi S till en data Tillstånd att göra digital / papperskopia av en del av eller allt detta arbete för personligt eller klassrum användning beviljas utan avgift, förutsatt att kopiorna inte görs eller distribueras för vinst eller kommersiell fördel, upphovsrättsmeddelandet, titeln på publikationen, och dess datum visas, och meddelande ges att kopiering är genom tillstånd av föreningen för datormaskiner (ACM), Inc. Att kopiera annars, att publicera, att posta på servrar, eller att omfördela till listor, kräver föregående specifikt tillstånd och / eller en avgift. © 1999 ACM 0004-5411/99/1100-0891 $5,00 Journal of the ACM, Vol. - Nej, det gör jag inte. 6 november 1998, s. 891-923. struktur, så att med tanke på någon frågepunkt q på R d, är den närmaste punkten av S till q kan rapporteras snabbt. Med tanke på alla positiva verkliga på, en data punkt p är en (1 på)-ungefär närmaste granne av q om dess avstånd från q är inom en faktor av (1 på) av avståndet till den sanna närmaste grannen. Vi visar att det är möjligt att preprocessa en uppsättning n punkter i R d i O(dn log n) tid och O(dn) utrymme, så att med tanke på en frågepunkt q på R d, och på 0, en (1 på...)-ungefärliga närmaste granne av q kan beräknas i O(c d, på log n) tid, där c d, på c d, och d är en faktor beroende endast på dimension och. I allmänhet visar vi att med tanke på ett heltal k på 1, (1 på) - approximationer till k närmaste grannar av q kan beräknas i ytterligare O (kd log n) tid.
Lyckligtvis, effektiva algoritmer finns om i stället för exakt närmaste grannar, vi ber om ungefärliga närmaste grannar REF.
8,193,729
An optimal algorithm for approximate nearest neighbor searching fixed dimensions
{'venue': 'JACM', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,909
Webbinformation presenteras ofta i form av poster, t.ex. en produktpost på en shoppingwebbplats eller en personlig profil på en social nyttowebbplats. Med tanke på en värdsida och relaterade informationsbehov är det viktigt för många online-informationssystem att identifiera relevanta register och deras interna semantiska strukturer. Wrapper induktion är en av de mest effektiva metoderna för sådana uppgifter. De flesta traditionella omslagstekniker har dock problem med webbjournaler eftersom de är utformade för att extrahera information från en sida, inte en skiva. Vi föreslår ett skivomslagssystem. I vårt system använder vi en ny "broom"-struktur för att representera både skivor och genererade omslag. Med en sådan representation, vårt system kan effektivt extrahera poster och identifiera sina interna semantik på samma gång. Vi testar vårt system på 16 riktiga webbplatser från fyra olika domäner. Experimentella resultat visar 99 % extraktionsnoggrannhet när det gäller F1-värde.
Zheng m.fl. föreslog en metod för att extrahera poster och identifiera interna semantik på samma gång REF.
15,079,973
Efficient record-level wrapper induction
{'venue': 'CIKM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,910
Kapaciteten hos ett neuralt nätverk för att absorbera information begränsas av dess antal parametrar. Villkorlig beräkning, där delar av nätet är aktiva per exempel, har i teorin föreslagits som ett sätt att dramatiskt öka modellkapaciteten utan en proportionell ökning av beräkningen. I praktiken finns det dock betydande utmaningar när det gäller algoritmer och prestanda. I detta arbete tar vi itu med dessa utmaningar och slutligen förverkliga löftet om villkorlig beräkning, uppnå mer än 1000x förbättringar i modellkapacitet med endast mindre förluster i beräkningseffektivitet på moderna GPU-kluster. Vi introducerar en Sparsely-Gated Mixing-of-Experts lager (MoE), bestående av upp till tusentals feed-forward undernätverk. Ett utbildat gating nätverk bestämmer en gles kombination av dessa experter att använda för varje exempel. Vi tillämpar MoE på uppgifter som språkmodellering och maskinöversättning, där modellkapacitet är avgörande för att absorbera de stora mängder kunskap som finns i träningskorporan. Vi presenterar modellarkitekturer där en MoE med upp till 137 miljarder parametrar appliceras konvolutionellt mellan staplade LSTM-lager. På stora språk modellering och maskinöversättning riktmärken, dessa modeller uppnå betydligt bättre resultat än state-of-the-art till lägre beräkningskostnader.
REF lärde sig ett stort modulärt neuralt nätverk med tusentals undernätverk.
12,462,234
Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,911
Vi överväger att lära sig representationer av enheter och relationer i KBs med hjälp av neural-bäddning strategi. Vi visar att de flesta befintliga modeller, inklusive NTN (Socher et al., 2013) och TransE (Bordes et al., 2013b), kan generaliseras under en enhetlig inlärningsram, där enheter är lågdimensionella vektorer lärt från ett neuralt nätverk och relationer är bilinjära och / eller linjära karteringsfunktioner. Inom denna ram jämför vi en mängd olika inbäddade modeller på länken förutsägelse uppgift. Vi visar att en enkel bilinjär formulering ger nya toppmoderna resultat för uppgiften (uppnå en topp 10 noggrannhet på 73,2 % jämfört med 54,7 % av TransE på Freebase). Dessutom introducerar vi ett nytt tillvägagångssätt som använder den inlärda relationen inbäddningar till mina logiska regler som BornInCitypa, bq^CityInCountrypb, cq ùñ N rationalitetpa, cq. Vi finner att inbäddningar från det bilinjära målet är särskilt bra på att fånga relationssemantik, och att sammansättningen av relationer kännetecknas av matris multiplikation. Mer intressant, visar vi att vår inbäddade-baserade utvinning av regler framgångsrikt överträffar en toppmodern förtroende-baserade regel gruvdrift strategi i gruvhorn regler som inbegriper kompositions resonerande.
Men Yang m.fl. REF visar att man också kan använda grafbäddar till mina regler.
2,768,038
Embedding Entities and Relations for Learning and Inference in Knowledge Bases
{'venue': None, 'journal': 'arXiv: Computation and Language', 'mag_field_of_study': ['Computer Science']}
81,912
Vi förbättrar den nyligen föreslagna "MixMatch" semi-övervakade inlärningsalgoritm genom att införa två nya tekniker: distribution anpassning och förstärkning förankring. Distributionsanpassningen uppmuntrar marginaldistributionen av förutsägelser på omärkta data att ligga nära marginaldistributionen av marktruth-etiketter. Augmentation förankring matar flera kraftigt förstärkta versioner av en inmatning i modellen och uppmuntrar varje utgång att vara nära förutsägelsen för en svagt förutsedd version av samma ingång. För att producera starka förstärkningar föreslår vi en variant av AutoAugment som lär sig förstärkningspolitiken medan modellen tränas. Vår nya algoritm, dubbade Remix-Match, är betydligt mer data-effektiv än tidigare arbete, kräver mellan 5× och 16× mindre data för att nå samma noggrannhet. Till exempel, på CIFAR-10 med 250 märkta exempel når vi 93,73% noggrannhet (jämfört med Mix-Match noggrannhet på 93,58% med 4000 exempel) och en median noggrannhet på 84,92% med bara fyra etiketter per klass. Vi gör vår kod och data open-source på https://github.com/google-research/remixmatch.
REF använde självövervakat lärande för att uppnå goda resultat på CIFAR-10 och SVHN med endast 250 etiketter.
208,247,904
ReMixMatch: Semi-Supervised Learning with Distribution Alignment and Augmentation Anchoring
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,913