src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Crowdsourcing har visat sig vara en effektiv metod för att lösa svåra problem, men de nuvarande crowdsourcingsystemen har två huvudsakliga begränsningar: i) uppgifter måste paketeras om för att kunna visas upp på lämpligt sätt för crowd-arbetare, vilket i allmänhet kräver omfattande engångsprogram och stödinfrastruktur, och ii) crowd-arbetare saknar i allmänhet en snäv återkopplingsslinga med sin uppgift. I detta dokument introducerar vi Legion, ett system som gör det möjligt för slutanvändare att enkelt fånga befintliga grafiska gränssnitt och outsourca dem för samarbete, realtidskontroll av publiken. Vi presenterar medlingsstrategier för att integrera flera publikarbetares bidrag i realtid, utvärdera dessa medlingsstrategier i flera tillämpningar och ytterligare validera Legion genom att utforska utrymmet för nya tillämpningar som det möjliggör.
Legion gör det möjligt för flera crowd arbetare att styra befintliga användargränssnitt i realtid REF.
478,154
Real-time crowd control of existing interfaces
{'venue': "UIST '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,320
Abstract Cloud computing har nyligen dykt upp som ett nytt paradigm för hosting och leverans av tjänster över Internet. Cloud computing är attraktivt för företagsägare eftersom det eliminerar kravet på användare att planera framåt för tillhandahållande, och gör det möjligt för företag att starta från små och öka resurser endast när det finns en ökning av efterfrågan på tjänster. Trots att cloud computing erbjuder stora möjligheter för IT-industrin, är utvecklingen av cloud computing-teknik för närvarande i sin linda, med många frågor som återstår att ta itu med. I det här dokumentet presenterar vi en kartläggning av molndata och lyfter fram dess nyckelbegrepp, arkitektoniska principer, toppmoderna implementeringar samt forskningsutmaningar. Syftet med denna uppsats är att ge en bättre förståelse för de designutmaningar som molndata innebär och identifiera viktiga forskningsinriktningar inom detta allt viktigare område.
I REF presenteras en undersökning av Cloud computing, som belyser dess nyckelbegrepp, arkitektoniska principer, hjärtats tillstånd, genomförande samt forskningsutmaningar.
6,224,636
Cloud computing: state-of-the-art and research challenges
{'venue': 'Journal of Internet Services and Applications', 'journal': 'Journal of Internet Services and Applications', 'mag_field_of_study': ['Computer Science']}
82,321
Abstract-Cognitive Radio (CR) teknologi möjliggör opportunistisk användning av de lediga licensierade frekvensbanden, vilket förbättrar spektrumutnyttjandet. CR-operationen får dock inte störa överföringarna från de licensierade eller primära användarna, och detta uppnås i allmänhet genom att man gör en avvägning mellan CR-nätverkens prestanda. För att utvärdera denna avvägning föreslås ett distribuerat CR-routingprotokoll för ad hoc-nät (CRP) som ger följande bidrag: i) uttryckligt skydd för PU-mottagare som i allmänhet inte upptäcks under spektrumavkänning, ii) tillåter flera klasser av rutter baserade på tjänstedifferentiering i CR-nät och iii) skalbart urval av gemensamma routespektrum. En viktig nyhet med CRP är kartläggningen av spektrumvalsmått, och lokala PU-interferensobservationer till ett paket som vidarebefordrar fördröjningar över kontrollkanalen. Detta gör det möjligt för ruttbildningen över en kontrollkanal att fånga miljö- och spektruminformationen för alla mellanliggande noder, vilket minskar de beräknade omkostnaderna vid destinationen. Resultaten visar hur viktigt det är att formulera routingproblemet för att skydda PU-kommunikationen, som är en unik egenskap i CR-nätverken.
I REF föreslogs ett distribuerat kognitivt radioroutingprotokoll för ad hoc-nätverk.
10,587,615
CRP: A Routing Protocol for Cognitive Radio Ad Hoc Networks
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
82,322
Beräkningen för dagens intelligenta personliga assistenter som Apple Siri, Google Now och Microsoft Cortana utförs i molnet. Detta moln-enbart tillvägagångssätt kräver betydande mängder data som ska skickas till molnet över det trådlösa nätverket och sätter betydande beräkningstryck på datacenteret. Men när beräkningsresurserna i mobila enheter blir mer kraftfulla och energieffektiva uppstår frågor om huruvida denna molnbaserade behandling är önskvärd framåt, och vad är konsekvenserna av att driva en del eller alla av denna beräkning till de mobila enheterna på kanten. I detta dokument undersöker vi status quo-metoden för molnbaserad bearbetning och undersöker datadelningsstrategier som effektivt utnyttjar både cyklerna i molnet och den mobila enheten för att uppnå låg latens, låg energiförbrukning och hög datacenterkapacitet för denna klass av intelligenta applikationer. Vår studie använder 8 intelligenta applikationer som spänner över datorseende, tal, och naturliga språkdomäner, alla använder state-of-the-art Deep Neural Networks (DNNs) som kärnan maskininlärning teknik. Vi finner att med tanke på egenskaperna hos DNN-algoritmer, en finkornig, lagernivå-beräkning partitioneringsstrategi baserad på data och beräkningsvariationer för varje skikt i en DNN har betydande latens och energifördelar jämfört med status quo-metoden. Med hjälp av denna insikt designar vi Neurosurgeon, en lätt schemaläggare för att automatiskt partitionera DNN-beräkning mellan mobila enheter och datacenter vid granulariteten i neurala nätverkslager. Neurokirurg kräver inte profilering per applikation. Den anpassar sig till olika DNN-arkitekturer, hårdvaruplattformar, trådlösa nätverk och serverbelastningsnivåer, intelligent partitionera beräkning för tillstånd att göra digitala eller hårda kopior av hela eller delar av detta arbete för personligt eller klassrum användning beviljas utan avgift, förutsatt att kopior inte görs eller distribueras för vinst eller kommersiella fördelar och att kopior bär detta meddelande och den fullständiga hänvisning på första sidan. Upphovsrätt till delar av detta verk som ägs av andra än ACM måste hedras. Abstraktering med kredit är tillåten. Att kopiera på annat sätt, eller återpublicera, att posta på servrar eller att omfördela till listor, kräver tidigare specifik behörighet och / eller en avgift. Begär tillstånd från authoritys@acm.org. bästa latens eller bästa mobila energi. Vi utvärderar neurokirurgi på en toppmodern mobil utvecklingsplattform och visar att det förbättrar end-to-end latency med 3,1× i genomsnitt och upp till 40,7×, minskar mobil energiförbrukning med 59,5% i genomsnitt och upp till 94,7%, och förbättrar datacenter genomströmning med 1,5× i genomsnitt och upp till 6,7×.
Kang m.fl. Ref undersökte först DNN-partitioneringsstrategier som effektivt avlastade DNN-lager på de mobila enheterna och i molnet för att uppnå låg energiförbrukning och latens.
1,158,124
Neurosurgeon: Collaborative Intelligence Between the Cloud and Mobile Edge
{'venue': "ASPLOS '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,323
Automatisk falska nyheter upptäckt är ett viktigt, men ändå mycket utmanande ämne. Traditionella metoder som använder lexiska funktioner har endast mycket begränsad framgång. I detta dokument föreslås en ny metod för att integrera högtalarprofiler i en uppmärksamhetsbaserad LSTM-modell för falsk nyhetsdetektering. Högtalarprofiler bidrar till modellen på två sätt. Det ena är att ta med dem i uppmärksamhetsmodellen. Den andra innehåller dem som ytterligare indata. Genom att lägga till högtalarprofiler som partitillhörighet, högtalartitel, plats- och kredithistorik överträffar vår modell den senaste metoden med 14,5 % i exakthet med hjälp av ett riktmärke för falska nyhetsdetekteringsdata. Detta bevisar att talarprofiler ger värdefull information för att bekräfta nyhetsartiklarnas trovärdighet.
Lång et al. REF föreslog en modell som införlivade högtalarprofiler i en uppmärksamhetsbaserad LSTM-modell och använde dessa profiler som ytterligare indata, inklusive talarens partitillhörighet, plats, titel och credic-historik.
28,775,043
Fake News Detection Through Multi-Perspective Speaker Profiles
{'venue': 'IJCNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,324
Abstract-Vi föreslår en metod för head-pose invariant ansiktsuttrycksigenkänning som bygger på en uppsättning karakteristiska ansiktspunkter. För att uppnå head-pose invariance föreslår vi den parade skalade Gaussian Process Regression (CSGPR) modellen för headpose normalization. I denna modell lär vi oss först självständigt kartläggningarna mellan ansiktspunkterna i varje par av (diskreta) icke frontala poser och frontal pose, och sedan utföra sin koppling för att fånga beroenden mellan dem. Under slutsatsen kombineras de kopplade funktionernas utgångar från olika poser med hjälp av en gatingfunktion, utformad utifrån headpose-uppskattningen för frågepunkterna. Den föreslagna modellen överträffar state-of-the-art regressionsbaserade metoder för head-pose normalization, 2D och 3D Point Distribution Models (PDMs) och Active Appearance Models (AAMs), särskilt i fall av okända poser och obalanserade träningsdata. Så vitt vi vet är den föreslagna metoden den första som kan hantera uttrycksfulla ansikten i sortimentet från À45-45 pan rotation och À30-030 tilt rotation, och med kontinuerliga förändringar i huvudet pose, trots att utbildning genomfördes på en liten uppsättning diskreta poser. Vi utvärderar den föreslagna metoden på syntetiska och verkliga bilder som skildrar agerade och spontant visade ansiktsuttryck.
Rodovic föreslog en pose invariant känsla erkännande metod med hjälp av kopplade skalade Gaussian process regression REF.
637,994
Coupled Gaussian processes for pose-invariant facial expression recognition
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,325
Abstract-Den dubbla användningen av radiosignaler för samtidig trådlös information och kraftöverföring (SWIPT) har nyligen dragit stor uppmärksamhet. För att uppfylla det praktiska kravet på att energimottagare (ER) fungerar med mycket högre mottagningseffekt än informationsmottagare (IR) måste ER placeras närmare sändaren än IR. Men på grund av de trådlösa kanalernas sändningskaraktär är en kritisk fråga att de meddelanden som skickas till IR inte kan tjuvlyssnas av ER, som har bättre kanaler från sändaren. I det här dokumentet tar vi upp detta nya sekretesskommunikationsproblem i ett fleranvändar-multi-input-single-output (MISO) SWIPT-system där en multi-antennsändare skickar information och energi samtidigt till en IR och flera ER, var och en med en enda antenn. Genom att optimera transmitterande strålformningsvektorer och deras effektallokering maximerar vi den viktade energi som överförs till ER med förbehåll för sekretesskrav för den information som skickas till IR. Vi löser detta icke-konvexa problem optimalt genom att omformulera det till ett tvåstegsproblem. Först rättar vi signal-till-interferens-plusbrusförhållandet (SINR) vid IR och får den optimala strålformningslösningen genom att tillämpa tekniken för semidefinit relaxation (SDR). Sedan löses det ursprungliga problemet genom en endimensionell sökning över det optimala SINR-värdet för IR. Dessutom föreslås två suboptimala system för strålformning med låg komplexitet, och deras uppnåeliga (särskilda) hastighetsenergiregioner (R-E) jämförs med det optimala systemet.
Den gemensamma informations- och energi strålformning design för att maximera den hemliga kapaciteten till informationsmottagare undersöks och effektiva algoritmer föreslås i REF.
10,314,103
Secrecy wireless information and power transfer with MISO beamforming
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,326
Sammanfattning av denna webbsida: I den här artikeln diskuteras ett inköps- och försäljningstidsförutsägelsesystem för aktier på Tokyobörsen och analys av intemal representation. Den är baserad på modulära neurala nätverk [l][2]. Vi utvecklade ett antal inlärningsalgoritmer och förutsägelsemetoder för TOPIX (Toky0 Stock Exchange Prices Indexes) förutsägelsesystem. Prognossystemet uppnådde exakta förutsägelser och simuleringen på aktier tradmg visade en utmärkt vinst. Prognossystemet utvecklades av Fujitsu och Nikko Securities.
I början av 90-talet använde Kimoto, Asakawa, Yoda och Takeoka REF flera inlärningsalgoritmer och förutsägelser metoder för att utveckla ett förutsägelsesystem för Tokyo Stock Exchange Prices Index.
7,078,470
Stock market prediction system with modular neural networks
{'venue': '1990 IJCNN International Joint Conference on Neural Networks', 'journal': '1990 IJCNN International Joint Conference on Neural Networks', 'mag_field_of_study': ['Computer Science']}
82,327
Vi föreslår och analyserar en kvasirandom analog av den klassiska push modellen för att sprida information i nätverk ("randomized rykte sprider"). I den klassiska modellen, i varje runda, väljer varje informerad vertex en granne slumpmässigt och informerar den, om det inte informerades tidigare. Det är känt att detta enkla protokoll lyckas sprida ett rykte från en vertex till alla andra inom O(log n) rundor på kompletta grafer, hyperkuber, slumpmässiga regelbundna grafer, Erdős-Rényi slumpmässiga grafer, och Ramanujan grafer med sannolikhet 1 - o(1). I kvasirandom modellen antar vi att varje vertex har en (cyklisk) lista över sina grannar. När det väl informerats, börjar det på en slumpmässig position på listan, men från och med då informerar sina grannar i ordningen på listan. Förvånansvärt nog håller de ovan nämnda gränserna fortfarande, oberoende av order från listorna. I vissa fall kan man visa ännu bättre gränser än för den klassiska modellen.
Återigen, samma gräns innehar för kvasirandom modellen REF.
509,552
Quasirandom Rumor Spreading
{'venue': 'TALG', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,328
Konvolutionella neurala nätverk (CNN) revolutionerar maskininlärning, men de utgör betydande datorella utmaningar. På senare tid har många FPGA-baserade acceleratorer föreslagits för att förbättra CNN:s prestanda och effektivitet. Nuvarande metoder konstruera en enda processor som beräknar CNN-lagren ett i taget; processorn är optimerad för att maximera genomströmningen vid vilken samlingen av lager beräknas. Detta tillvägagångssätt leder dock till ineffektiva konstruktioner eftersom samma processorstruktur används för att beräkna CNN-skikt med radikalt varierande dimensioner. Vi presenterar ett nytt CNN-acceleratorparadigm och en åtföljande automatiserad designmetod som delar upp de tillgängliga FPGA-resurserna i flera processorer, som var och en är skräddarsydd för en annan delmängd av CNN-konvolutionsskikten. Genom att använda samma FPGA resurser som en enda stor processor, flera mindre specialiserade processorer öka beräkningseffektiviteten och leda till en högre total genomströmning. Vår designmetodik uppnår 3,8x högre genomströmning än den toppmoderna metoden för att utvärdera den populära AlexNet CNN på en Xilinx Virtex-7 FPGA. För de nyare SqueezeNet och GoogLeNet, är upphastigheterna 2,2x och 2,0x.
Shen, m.fl. REF delade FPGA-resurser för att bearbeta olika undergrupper av konvolutionslager av CNN.
4,781,460
Maximizing CNN Accelerator Efficiency Through Resource Partitioning
{'venue': "ISCA '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,329
Abstrakt. Spridningen av tjänsteorienterade datorer påverkar i dag i hög grad många mjukvaruutvecklings- och forskningsverksamheter. Trots detta är tjänsteorienterad databehandling ett relativt nytt område, där många aspekter fortfarande lider av brist på standardisering. Det serviceorienterade tillvägagångssättet är också att föra samman forskare från olika samhällen eller från organisationer som har utvecklat sina egna lösningar. Detta inför behovet av att låta alla dessa människor kommunicera med varandra med hjälp av ett gemensamt språk och en gemensam förståelse av den teknik de använder eller bygger. I detta dokument föreslås en konceptuell modell som beskriver aktörer, verksamheter och enheter som är involverade i ett tjänsteorienterat scenario och förhållandet mellan dem. Samtidigt som modellen skapas för ett europeiskt projekt är den lätt att anpassa för att tillgodose behoven hos alla andra serviceinriktade initiativ.
Colombo m.fl. I Ref föreslås en konceptuell modell som beskriver aktörer, verksamheter och enheter som är involverade i ett tjänsteorienterat scenario och förhållandet mellan dem.
6,612,674
Speaking a Common Language: A Conceptual Model for Describing Service-Oriented Systems
{'venue': 'In Proceedings of International Conference on Service-Oriented Computing (ICSOC 05), Amsterdam (NL), December 2005, LNCS 3826', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,330
Temporal abstraktion är nyckeln till att skala upp lärande och planering i förstärkning lärande. Även om planeringen med tidsförlängda åtgärder är väl förstådd, har skapandet av sådana abstraktioner autonomt från data förblivit en utmaning. Vi tar itu med detta problem inom ramen för alternativen [Sutton, Precup & Singh, 1999; Precup, 2000]. Vi härleder policy gradienter för alternativ och föreslår en ny alternativ-kritisk arkitektur som kan lära sig både den interna politiken och villkoren för uppsägning av alternativ, tillsammans med politiken över alternativ, och utan att behöva ge några ytterligare belöningar eller delmål. Experimentella resultat i både diskreta och kontinuerliga miljöer visar på flexibiliteten och effektiviteten i ramverket.
Bacon m.fl. I Ref föreslås en ny optionskritisk struktur som kan lära sig både den interna politiken och termineringsvillkoren för alternativ, tillsammans med policyn om alternativ, och utan att behöva ge några ytterligare belöningar eller delmål.
6,627,476
The Option-Critic Architecture
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,331
Abstrakt. Vi föreslår en ny mänsklig-centrerad strategi för att upptäcka och lokalisera mänskliga handlingar i utmanande videodata, såsom Hollywood-filmer. Vårt mål är att lokalisera åtgärder i tid genom videon och rumsligt i varje ram. Vi uppnår detta genom att först få generiska spatiotemporala mänskliga spår och sedan upptäcka specifika åtgärder inom dessa med hjälp av en skjutfönster klassificerare. Vi gör följande bidrag: (i) Vi visar att dela upp åtgärden lokalisering uppgift i rumsliga och temporal sökning leder till en effektiv lokalisering algoritm där generiska mänskliga spår kan återanvändas för att känna igen flera mänskliga åtgärder; (ii) Vi utvecklar en mänsklig detektor och spårare som kan hantera ett brett spektrum av positioner, artikulationer, rörelser och kamera synpunkter. Spåraren inkluderar detektion interpolation och ett principiellt klassificeringsstadium för att undertrycka falska positiva spår; (iii) Vi föreslår en spårjusterad 3D-HOG-åtgärd representation, undersöka dess parametrar, och visa att åtgärder lokalisering drar nytta av att använda spår; och (iv) Vi introducerar en ny åtgärd localization dataset baserat på Hollywood filmer. Resultaten presenteras på ett antal riktiga filmer med trängsel, dynamisk miljö, partiell ocklusion och belamrad bakgrund. På Coffee & Cigarettes dataset förbättrar vi avsevärt över den senaste tekniken. Dessutom får vi utmärkta resultat på den nya HollywoodLocalization dataset.
Klaser på al. REF använder en rymdtidsdeskriptor och en skjutfönsterklassare för att upptäcka platsen för endast två åtgärder (fonning och stående).
624,043
Human Focused Action Localization in Video
{'venue': 'INTERNATIONAL WORKSHOP ON SIGN, GESTURE, AND ACTIVITY (SGA) IN CONJUNCTION WITH ECCV (2010)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,332
Avskyvärt. Imperativa program kan vändas direkt från deras framåtriktade programkod med användning av logisk inferens. Den relationella semantiken av tvingande beräkningar behandlar program som logiska relationer över det observerbara tillståndet i miljön, som anses vara tillståndet för variablerna i minnet. Programrelationer betecknar både framåt och bakåt beräkningar, och riktningen för beräkningen beror på momentiation mönster av argument i relationen. Denna syn på inversion har praktiska tillämpningar när relationssemantik behandlas som ett logiskt program. Beroende på logik programmering inference schema som används, kan genomförandet av detta relationella program beräkna inversen av det imperativa programmet. Ett antal icke-triviala nödvändiga beräkningar kan vändas upp och ned med minimala logiska programmeringsverktyg.
Det enda andra arbetet i denna riktning vi är medvetna om, inverser tvingande program genom att behandla deras relationssemantik som logik program REF.
15,636,609
Running programs backwards: The logical inversion of imperative computation
{'venue': 'Formal Aspects of Computing', 'journal': 'Formal Aspects of Computing', 'mag_field_of_study': ['Computer Science']}
82,333
Många moderna NLP-system förlitar sig på ordinslag, tidigare utbildade på ett oövervakat sätt på stora corpora, som basfunktioner. Ansträngningar att skaffa inbäddningar för större delar av texten, till exempel meningar, har emellertid inte varit så framgångsrika. Flera försök att lära sig oövervakade framställningar av meningar har inte nått tillfredsställande resultat för att bli allmänt antagna. I denna uppsats visar vi hur universella mening representationer tränas med hjälp av övervakade data från Stanford Natural Language Inference dataset kan konsekvent överträffa oövervakade metoder som SkipThought vektorer (Kiros et al., 2015) på ett brett spektrum av överföringsuppgifter. Ungefär som hur datorseende använder ImageNet för att få funktioner, som sedan kan överföras till andra uppgifter, tenderar vårt arbete att indikera lämpligheten av naturligt språk slutsatser för överföring lärande till andra NLP uppgifter. Vår kodare är offentligt tillgänglig 1.
I detta syfte föreslog REF att träna en universell mening kodare i form av en dubbelriktad LSTM med hjälp av övervakade naturliga språk inference data, outperforming oövervakade metoder som SkipThought.
28,971,531
Supervised Learning of Universal Sentence Representations from Natural Language Inference Data
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,334
Abstract-I detta dokument föreslår vi en skärningspunkt-baserad konnektivitet-medveten routing protokoll (iCAR) för fordonsspecifika ad hoc-nätverk (VANET) för att möjliggöra infotainment och interaktiva applikationer, samt multi-hop Internet-åtkomst i stadsmiljöer. iCAR är ett nytt protokoll som tar hänsyn till trafikinformation i realtid och den erfarna paketleveransfördröjningen per väg, för att förbättra ruttprestandan genom att dynamiskt välja vägar med garanterad anslutning och minskad leveransfördröjning. Detta uppnås genom att man använder en mikroskopisk bild av fordonens placering för att proaktivt uppskatta väganslutningen och den minsta länklivslängden per väg. Detaljerad analys och simuleringsbaserade utvärderingar visar att iCAR avsevärt förbättrar nätverksprestandan i fråga om paketleveranskvot och end-to-end-fördröjning med försumbara kostnader för kommunikations omkostnader.
För att anpassa sig till det urbana scenariot föreslås en konnektivitetsmedveten routing (iCAR) Ref.
18,425,811
iCAR: Intersection-based connectivity aware routing in vehicular ad hoc networks
{'venue': '2013 IEEE International Conference on Communications (ICC)', 'journal': '2013 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Computer Science']}
82,335
Tillämpningar där vanlig text samexisterar med strukturerade data är genomgripande. Commercial relational database management systems (RDBMSs) ger i allmänhet frågefunktioner för textattribut som innehåller state-of-the-art information hämtning (IR) relevans rankningsstrategier, men denna sökfunktion kräver att frågor ange exakt kolumn eller kolumner mot vilka en viss lista med nyckelord ska matchas. Detta krav kan vara besvärligt och oflexibelt ur ett användarperspektiv: bra svar på en sökordsfråga kan behöva "samlas" -på kanske oförutsedda sätt-genom att ansluta tuples från flera relationer. Denna observation har motiverat ny forskning om fri-form sökordssökning över RDBMS. I detta dokument anpassar vi IR-stil dokument-relevans ranking strategier till problemet med att bearbeta fri-form sökord frågor över RDBMS. Vår frågemodell kan hantera frågor med både AND och OR semantik, och utnyttjar den sofistikerade single-column text-search funktionalitet som ofta finns i kommersiella RDBMS. Vi utvecklar frågebehandlingsstrategier som bygger på en avgörande egenskap hos IR-stil sökordssökning: endast de få mest relevanta matcher -enligt någon definition av "relevans" - är i allmänhet av intresse. Följaktligen, snarare än att beräkna alla matchningar för en sökordsfråga, vilket leder till ineffektiva utföranden, våra tekniker fokuserar på top-k matcher för frågan, för måttliga värden av k. En grundlig experimentell utvärdering över verkliga data visar prestandafördelarna med vår strategi. - Vad är det för fel på dig?
Referens REF tillämpar också några av de top-k frågebehandling idéer på problemet med sökordssökning, men för en databas inställningar.
237,524
Efficient IR-Style Keyword Search over Relational Databases
{'venue': 'VLDB', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,336
Abstrakt. I denna uppsats utforskar vi anmärkningsvärda likheter mellan multi-transaktionella beteenden hos smarta kontrakt i kryptovalutor som Ethereum och klassiska problem med delad minneskonvergens. Vi undersöker två verkliga exempel från Ethereum blockchain och analyserar hur de är sårbara för buggar som påminner mycket om dem som ofta förekommer i traditionella samtidiga program. Vi utvecklar sedan relationen mellan observerbara kontraktsbeteenden och välstuderade konvergensämnen, såsom atomicitet, interferens, synkronisering och resursägande. Den beskrivna avtals-som-konkurrenter analogi ger djupare förståelse för potentiella hot mot smarta kontrakt, indikerar bättre tekniska metoder och möjliggör tillämpning av befintliga toppmoderna formella verifieringstekniker.
Sergey m.fl. avslöja att smarta kontrakt kommer att drabbas av liknande problem som ofta förekommer i trans-rationella samtidiga program REF.
3,185,884
A Concurrent Perspective on Smart Contracts
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,337
Egenskapstestare utgör en viktig klass av sublinjära algoritmer. I standardtestmodellen får en algoritm åtkomst till inmatningsfunktionen f : D → R via ett orakle. Med mycket få undantag, alla fastighetstestare som studeras i denna modell förlitar sig på oraklet för att ge funktionsvärden vid alla tillfrågade domänpunkter. I många realistiska situationer kan orakelt dock inte kunna avslöja funktionsvärdena vid vissa domänpunkter på grund av integritetsproblem, eller när en del av värdena raderas av misstag eller av en motståndare. Testare inte lära sig något användbart om egenskapen genom att fråga de raderade punkter. Dessutom kan en testares kunskap göra det möjligt för en motståndare att radera några av värdena för att öka frågekomplexiteten hos testaren godtyckligt eller, i vissa fall, göra testaren helt värdelös. I detta arbete initierar vi en studie av fastighetstestare som är motståndskraftiga mot förekomsten av kontradiktoriskt raderade funktionsvärden. En α-erasure-resilient ε-tester ges parametrar α, ε på (0, 1), tillsammans med orakle tillgång till en funktion f sådan att som mest en α-fraktion av funktionsvärden har raderats. Testaren vet inte om ett värde raderas förrän den frågar motsvarande domänpunkt. Testaren måste acceptera med stor sannolikhet om det finns ett sätt att tilldela värden till de raderade punkterna så att den resulterande funktionen uppfyller den önskade egenskapen P. Den måste avvisa med stor sannolikhet om, för varje tilldelning av värden till de raderade punkterna, den resulterande funktionen måste ändras i åtminstone en ε-fraktion av de icke-raderade domänpunkter för att uppfylla P. Vi designar radering-resilient egendom testare för en stor klass av egenskaper. För vissa egenskaper är det möjligt att få erosure-resilient testare genom att helt enkelt använda standard testare som en svart låda. Det finns dock mer utmanande egenskaper som alla kända testare förlitar sig på att fråga en specifik punkt. Om denna punkt raderas, går alla dessa testare sönder. Vi ger effektiva erosure-resilient testare för flera viktiga klasser av sådana egenskaper funktioner inklusive monotonitet, Lipschitz egendom, och konvexitet. Slutligen visar vi en separation mellan standard- och raderingskontroll. Speciellt beskriver vi en egenskap som kan ε-testas med O(1/ε) frågor i standardmodellen, medan testa den i radering-resilient modell kräver antal frågor polynom i ingångsstorleken.
För den raderingståliga modellen, förutom separationen mellan den modellen och standardtestmodellen, utformade REF effektiva raderingståliga testare för viktiga egenskaper, såsom monotonitet och konvexitet.
3,065,954
Erasure-Resilient Property Testing
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,338
Vi introducerar ett djupminnesnätverk för klassning av aspektnivåkänslor. Till skillnad från funktionsbaserade SVM och sekventiella neurala modeller som LSTM fångar detta tillvägagångssätt uttryckligen betydelsen av varje sammanhangsord när man drar en aspekts känslopolaritet. Sådan betydelsegrad och text representation beräknas med flera beräkningslager, som var och en är en neural uppmärksamhet modell över ett externt minne. Experiment på bärbara datorer och restaurangdata visar att vårt arbetssätt är jämförbart med toppmoderna funktioner baserade på SVM-system, och betydligt bättre än LSTM- och uppmärksamhetsbaserade LSTM-arkitekturer. På båda dataseten visar vi att flera beräkningslager kan förbättra prestandan. Dessutom är vårt tillvägagångssätt också snabbt. Det djupa minnesnätverket med 9 lager är 15 gånger snabbare än LSTM med en CPU-implementering.
REF föreslår ett djupt minnesnätverk som består av flera beräkningslager och varje lager beräknar en uppmärksamhetsvektor över ett externt minne.
359,042
Aspect Level Sentiment Classification with Deep Memory Network
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,339
En grundläggande utmaning när det gäller att utveckla semantiska tolker är bristen på stark tillsyn i form av språkanföranden som kommenteras med logisk form. I detta dokument föreslår vi att man utnyttjar de strukturella reglerna på olika språkområden och utbildar semantiska tolkar över flera kunskapsbaser (KB), samtidigt som man delar information mellan olika datauppsättningar. Vi finner att vi avsevärt kan förbättra tolkningen noggrannhet genom att träna en enda sekvens-to-sekvens modell över flera KBs, när det ger en kodning av domänen vid avkodningstid. Vår modell uppnår state-of-art prestanda på OvernigHT dataset (som innehåller åtta domäner), förbättrar prestanda över en enda KB baslinje från 75,6% till 79,6%, samtidigt som man får en 7x minskning av antalet modellparametrar.
Den modell som föreslogs av REF använde flera kunskapsbaser inom olika områden för att förbättra modellens prestanda.
14,215,409
Neural Semantic Parsing over Multiple Knowledge-bases
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,340
Företagen antar i allt högre grad processmedvetna informationssystem (PAIS), som erbjuder lovande perspektiv på mer flexibla företagsdata. Uppkomsten av olika processstödda paradigm och bristen på metoder för att jämföra befintliga metoder som möjliggör ändringar av PAIS har gjort det svårt att välja lämplig processhanteringsteknik. I detta dokument föreslås 18 förändringsmönster och 7 förändringsstödfunktioner för att främja en systematisk jämförelse av befintlig processhanteringsteknik med avseende på stöd för processförändring. De föreslagna mönstren är alla baserade på empiriska belägg från flera stora fallstudier, men de föreslagna ändringarnas stödfunktioner utgör typiska funktioner som tillhandahålls av flexibla PAIS. Baserat på de föreslagna förändringsmönster och egenskaper, ger vi en detaljerad analys och utvärdering av utvalda strategier från både akademi och industri. Det presenterade arbetet kommer inte bara att underlätta valet av teknik för att förverkliga flexibla PAIS, utan kan också användas som referens för att genomföra flexibla PAIS.
Exempelvis i REF identifierar författarna de viktigaste processförändringsmönstren och förändringsfunktionerna för PAIS (processmedvetna informationssystem).
673,892
Change patterns and change support features - Enhancing flexibility in process-aware information systems
{'venue': 'Data Knowl. Eng.', 'journal': 'Data Knowl. Eng.', 'mag_field_of_study': ['Computer Science']}
82,342
Vi anser att problemet med prissättning n objekt för att maximera intäkterna när de ställs inför en rad okända köpare med komplexa preferenser, och visar att ett enkelt prissättningssystem uppnår förvånansvärt starka garantier. Vi visar att i det obegränsade utbudet, ett slumpmässigt enskilt pris uppnår förväntade intäkter inom en logaritmisk faktor av den totala sociala välfärden för kunder med allmänna värdering funktioner, som kanske inte ens nödvändigtvis är monoton. Detta generaliserar arbetet av Guruswami et. al [18], som visar en logaritmisk faktor endast för specialfallen med ensinnade och enhetsefterfrågans kunder. I det begränsade utbudet, visar vi att för subadditiva värderingar, ett slumpmässigt enskilt pris uppnår intäkter inom en faktor på 2 O ( ε log n log n) av den totala sociala välfärden, dvs. den optimala intäkter säljaren kan hoppas på att extrahera även om säljaren kunde prissätta varje paket olika för varje köpare. Detta är den bästa approximationen känd för alla postprissättningssystem för subadditiva (eller till och med submodulära) värderingar, även med hjälp av flera priser. Vi kompletterar detta resultat med en lägre gräns som visar en sekvens av subadditiva (i själva verket XOS) köpare för vilka varje enskilt pris har approximationsförhållande 2 och 1/4 n, vilket visar att enskilda prissystem inte kan uppnå ett polylogaritmiskt förhållande. Denna lägre gräns visar en tydlig skillnad mellan inkomstmaximering och social välfärdsmaximering i denna miljö, för vilken [12, 10] visar att ett fast pris uppnår en logaritmisk approximation när det gäller XOS [12], och mer allmänt subadditiv [10] Vi anser också att det multienhetsfall som undersöks av [11] i samband med social välfärd, och visar att så länge ingen köpare kräver mer än en 1 − på bråkdel av objekten, ett slumpmässigt enda pris nu faktiskt uppnår intäkter inom en O (log n) faktor för den maximala sociala välfärden.
Senare utvidgade Balcan, Blum och Mansour Ref denna slutsats till att omfatta kunder med allmänna värderingsfunktioner.
53,038,874
Item pricing for revenue maximization
{'venue': "EC '08", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,343
Lärandeproblem utgör en viktig kategori av beräkningsuppgifter som generaliserar många av de beräkningar forskare tillämpar på stora verkliga datamängder. Vi frågar oss: vilka konceptklasser kan man lära sig privat, nämligen genom en algoritm vars utdata inte är alltför starkt beroende av någon input eller något specifikt utbildningsexempel? Mer exakt undersöker vi lärande algoritmer som tillgodoser differential integritet, ett begrepp som ger starka sekretessgarantier i sammanhang där aggregerad information släpps om en databas som innehåller känslig information om individer. Vårt mål är en bred förståelse av de resurser som krävs för privat lärande i form av prover, beräkningstid och interaktion. Vi visar att det är möjligt att privat agnostiskt lära sig vilken konceptklass som helst med hjälp av en provstorlek som är ungefär logaritmisk i begreppsklassens kardinalitet. Därför är nästan allt man kan lära sig privat: specifikt, om en konceptklass kan läras av en (icke-privat) algoritm med polynomisk prov komplexitet och produktionsstorlek, då kan det läras privat med hjälp av ett polynom antal prover. Vi presenterar också en beräkningseffektiv privat PAC-inlärare för klassen paritetsfunktioner. Detta resultat skingrar likheten mellan lärande med buller och privat lärande (båda måste vara robusta till små förändringar i input), eftersom paritet anses vara mycket svårt att lära med tanke på slumpmässig klassificering buller. Lokala (eller randomiserade svar) algoritmer är en praktisk klass av privata algoritmer som har fått omfattande utredning. Vi ger en exakt karakterisering av lokala privata inlärningsalgoritmer. Vi visar att en konceptklass kan läras av en lokal algoritm om och endast om den är inlärbar i den statistiska frågeställningen (SQ). Därför, för lokala privata lärande algoritmer, likheten med lärande med buller är starkare: lokalt lärande är likvärdigt med SQ lärande, och SQ algoritmer inkluderar mest kända bullertoleranta lärande algoritmer. Slutligen presenterar vi en åtskillnad mellan kraften i interaktiva och icke-interaktiva lokala inlärningsalgoritmer. På grund av likvärdigheten med SQ-inlärning separerar detta resultat också adaptivt och icke adaptivt SQ-inlärning.
Kasiviswanathan m.fl. Ref visade ett exempel på en konceptklass - klassen paritetsfunktioner - som inte går att lära sig i modellen för statistiska frågor men som kan läras privat och effektivt.
1,935
What Can We Learn Privately?
{'venue': 'SIAM Journal of Computing 40(3) (2011) 793-826', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,344
Detta dokument presenterar en uppsättning algoritmer för att särskilja personliga namn med flera verkliga referenser i text, baserat på lite eller ingen övervakning. Tillvägagångssättet använder en oövervakad klusterteknik över en rik funktion utrymme av biografiska fakta, som automatiskt extraheras via en språkoberoende bootstraping process. Den inducerade klustringen av namngivna enheter delas sedan upp och kopplas till deras verkliga referenser via automatiskt extraherade biografiska data. Prestanda utvärderas både utifrån en testuppsättning handmärkta flerreferent-personnamn och via automatiskt genererade pseudonamn.
REF tog upp uppgiften att samla webbsökningsresultaten för en uppsättning tvetydiga personnamn genom att använda ett rikt funktionsutrymme av biografiska fakta som erhållits via bootstrappade extraktionsmönster.
29,759,924
Unsupervised Personal Name Disambiguation
{'venue': 'Conference On Computational Natural Language Learning CoNLL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,345
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
Vårt nätverk för relationsförslag (RePN) är inspirerat och relaterar starkt till regionförslagsnätverket (RPN) för snabbare R-CNN REF som används vid objektdetektering.
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,346
Överväg helt dynamiska data, där vi spårar data som det blir infogas och raderas. Det finns välutvecklade föreställningar om privata dataanalyser med dynamiska data, till exempel med hjälp av differentiell integritet. Vi vill gå bortom integritet, och överväga integritet tillsammans med säkerhet, formulerade nyligen som pan-privacy av Dwork et al. Europaparlamentets och rådets förordning (EU, Euratom) nr 966/2012 av den 25 oktober 2012 om finansiella regler för unionens allmänna budget och om upphävande av rådets förordning (EG, Euratom) nr 1605/2002 (EUT L 298, 26.10.2012, s. 1). Informellt bevarar pan-privacy differential privacy medan computing önskad statistik om data, även om det interna minnet av algoritmen äventyras (säg, av en skadlig breakin eller insider nyfikenhet eller genom fiat av regeringen eller lagen). Vi studerar pan-private algoritmer för grundläggande analyser, som att uppskatta distinkta räkna, ögonblick, och tunga hitter räkna, med fullt dynamiska data. Vi presenterar de första kända panprivata algoritmerna för dessa problem i den fullt dynamiska modellen. Våra algoritmer bygger på skisstekniker som är populära i streaming: i vissa fall lägger vi till lämpligt buller till en tidigare känd skiss, med hjälp av en ny metod för att kalibrera buller till den underliggande problemstrukturen och projektionsmatrisen för skissen; i andra fall behåller vi viss statistik om skisser; i ytterligare andra definierar vi nya skisser. Vi presenterar också de första kända lägre gränserna uttryckligen för pan integritet, visar våra resultat att vara nästan optimal för dessa problem. Våra nedre gränser är starkare än de som innebär differentialintegritet eller dynamisk dataströmning ensam och hålla även om obundet minne och / eller obegränsad behandlingstid är tillåten. De lägre gränserna använder en bullrig avkodning argument och utnyttja en koppling mellan pan-privat algoritmer och data sanitization.
Mir och Al. studerade pan-private algoritmer för att uppskatta distinkta räkna, ögonblick och den tunga-hitter räkna på dataströmmar i REF, som bevarar differential integritet även om det interna minnet av algoritmerna äventyras.
13,521,947
Pan-private algorithms via statistics on sketches
{'venue': 'PODS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,347
Abstract-Scenario-baserade specifikationer såsom Message Sequence Charts (MSC) är användbara som en del av en kravspecifikation. Ett scenario är en partiell berättelse som beskriver hur systemkomponenter, miljö och användare arbetar samtidigt och interagerar för att ge systemnivåfunktioner. Scenarier måste kombineras för att ge en mer fullständig beskrivning av systemets beteende. Följaktligen är scenariosyntesen central för en effektiv användning av scenariobeskrivningar. Hur ska en uppsättning scenarier tolkas? Hur förhåller de sig till varandra? Vad är den underliggande semantiken? Vilka antaganden görs när man syntetiserar beteendemodeller från flera scenarier? I detta dokument presenterar vi en strategi för scenariosyntes baserad på en tydlig sund semantik, som kan stödja och integrera många av de befintliga strategierna för scenariosyntes. Tidningens bidrag är trefaldiga. Vi definierar först ett MSC språk med ljud abstrakt semantik i termer av märkta övergångssystem och parallell sammansättning. Språket integrerar befintliga metoder baserade på scenariosammansättning genom att använda MSC på hög nivå (hMSC) och metoder baserade på statlig identifiering genom att införa uttrycklig komponentstatsmärkning. Denna kombination gör det möjligt för intressenterna att dela upp scenariospecifikationerna i hanterbara delar och återanvända scenarier med hjälp av hMCS; den gör det också möjligt för dem att införa ytterligare domänspecifik information och allmänna antaganden uttryckligen i scenariospecifikationen med hjälp av statliga etiketter. För det andra tillhandahåller vi en ljudsyntesalgoritm som omvandlar scenarier till en beteendespecifikation i form av Finite Sequential Processes. Denna specifikation kan analyseras med Labeled Transition System Analyzer med hjälp av modellkontroll och animation. Slutligen visar vi hur många av de antaganden som ingår i befintliga syntesmetoder som kan göras explicita och modellerade i vår strategi. Därför utgör vi grunden för en gemensam strategi för scenariobaserad specifikation, syntes och analys.
I Ref föreslås en strategi för scenariobaserad specifikation, integration och beteendeanalys.
1,788,192
Synthesis of Behavioral Models from Scenarios
{'venue': 'IEEE Trans. Software Eng.', 'journal': 'IEEE Trans. Software Eng.', 'mag_field_of_study': ['Computer Science']}
82,348
I detta dokument presenteras ett nytt tillvägagångssätt för att identifiera och undanröja felmärkta utbildningsorgan för övervakat lärande. Målet med detta tillvägagångssätt är att förbättra klassi katjonsäkerheter som skapas genom att lära algoritmer genom att förbättra kvaliteten på träningsdata. Vår strategi använder en uppsättning inlärningsalgoritmer för att skapa classi ers som fungerar som buller lters för träningsdata. Vi utvärderar enstaka algoritmer, majoritetsröster och konsensus om vi datauppsättningar som är benägna att märka fel. Våra experiment visar att ltering väsentligt förbättrar klassi katjon noggrannhet för bullernivåer upp till 30%. En analytisk och empirisk utvärdering av precisionen i vår strategi visar att samförståndet är konservativt på att kasta bort bra data på bekostnad av att behålla dåliga data och att majoriteten av dem är bättre på att upptäcka dåliga data på bekostnad av att kasta bort bra data. Detta tyder på att konsensus är att föredra för situationer där det finns knapphändiga uppgifter, medan majoritetsomröstningar är att föredra för situationer med ett överflöd av uppgifter.
REF tillämpar en uppsättning inlärningsalgoritmer för att skapa en ensemble av klassificeringar.
15,489,782
Identifying Mislabeled Training Data
{'venue': 'Journal Of Artificial Intelligence Research, Volume 11, pages 131-167, 1999', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,349
Abstrakt. Smartphone-användare hämtar och installerar i allt högre grad tredjepartsprogram från officiella ansökningsarkiv. Angripare kan använda denna centraliserade program leverans arkitektur som en säkerhet och integritet attack vektor. Denna risk ökar eftersom tillämpningsprövningsmekanismer ofta inte finns på plats och användaren delegeras att godkänna vilka funktioner och skyddade resurser som är tillgängliga genom tredjepartsapplikationer. I det här dokumentet monterar vi en undersökning för att utforska säkerhetsmedvetenheten hos smartphone-användare som laddar ner program från officiella applikationsarkiv (t.ex. Google Play, Apples App Store, etc.). Undersökningsresultaten tyder på en säker självbelåtenhet, eftersom majoriteten av användarna litar på app-arkivet, säkerhetskontroller inte är aktiverade eller inte läggs till, och användare bortser från säkerheten under programval och installation. Som ett svar på denna säkerhet självbelåtenhet, byggde vi en förutsägelse modell för att indentifiera användare som litar på app-arkivet. Därefter bedöms, utvärderas och visade sig modellen vara statistiskt signifikant och effektiv.
En andra studie av säkerhetsmedvetenhet fann att användare som hämtar program från officiella ansökningsarkiv är självbelåtna i sina smart-phone säkerhetsbeteenden och visar höga nivåer av förtroende mot smart-phone applikationsdatabaser REF.
15,766,780
Delegate the smartphone user? Security awareness in smartphone platforms
{'venue': 'Comput. Secur.', 'journal': 'Comput. Secur.', 'mag_field_of_study': ['Computer Science']}
82,350
Vi föreslår ett fullt fungerande identitetsbaserat krypteringssystem (IBE). Systemet har valt chiffertext säkerhet i slumpmässiga oraklet modell antar en variant av beräknings DiffieHellman problem. Vårt system är baserat på tvålinjära kartor mellan grupper. Den Weil parning på elliptiska kurvor är ett exempel på en sådan karta. Vi ger exakta definitioner för säkra identitetsbaserade krypteringssystem och ger flera tillämpningar för sådana system.
Boneh-Franklin IBE-konstruktionen REF visade säkerhet i den slumpmässiga orakelmodellen.
734,165
Identity-based encryption from the Weil pairing
{'venue': 'SIAM J. of Computing', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,351
Vi presenterar en metod för att överföra neurala representationer från etikettrika källdomäner till omärkta måldomäner. Nya kontradiktoriska metoder som föreslås för denna uppgift lära sig att anpassa funktioner över domäner genom att lura en speciell domän kritiker nätverk. En nackdel med detta tillvägagångssätt är dock att kritikern helt enkelt klassificerar de skapade egenskaperna som i-domän eller inte, utan att ta hänsyn till gränserna mellan klasserna. Detta kan leda till tvetydiga egenskaper som genereras nära klassgränser, vilket minskar noggrannheten i målklassificeringen. Vi föreslår ett nytt tillvägagångssätt, Adversarial Dropout Regularization (ADR), för att uppmuntra generatorn att producera mer diskriminerande funktioner för måldomänen. Vår viktigaste idé är att ersätta kritikern med en som upptäcker icke-diskriminativa funktioner, med hjälp av avhopp på klassificeringsnätverket. Generatorn lär sig sedan att undvika dessa områden av funktionen utrymme och därmed skapar bättre funktioner. Vi tillämpar vår ADR-strategi på problemet med oövervakad domänanpassning för bildklassificering och semantiska segmenteringsuppgifter, och visar på betydande förbättringar jämfört med den senaste tekniken. Vi visar också att vårt tillvägagångssätt kan användas för att utbilda Generativa Adversarial Networks för halvövervakad inlärning.
Dessutom föreslår REF att man upptäcker icke-diskriminativa prover nära beslutsgränserna genom ett kritiskt nätverk, och låter generatorn lära sig att generera mer diskriminerande funktioner genom att lura det kritiska nätverket med kontradiktorisk utbildning.
3,687,439
Adversarial Dropout Regularization
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,352
Abstrakt. Många tillämpningar för datautvinning i verkliga världen innebär att man lär sig av obalanserade datamängder. Lärande från dataset som innehåller mycket få fall av minoritet (eller intressant) klass producerar vanligtvis partisk klassificerare som har en högre prediktiv noggrannhet över majoritetsklass(er), men sämre prediktiv noggrannhet över minoritet klass. SMOTE (Synthetic Minority Over-sampling TEchnique) är särskilt utformad för att lära av obalanserade datamängder. I detta dokument presenteras ett nytt tillvägagångssätt för att lära av obalanserade datauppsättningar, baserat på en kombination av SMOTE-algoritmen och det förstärkande förfarandet. Till skillnad från standardförbättringar där alla felklassificerade exempel ges lika stora vikter skapar SMOTEBoost syntetiska exempel från den sällsynta klassen eller minoritetsklassen, vilket indirekt ändrar uppdateringsvikterna och kompenserar för skev distribution. SMOTEBoost tillämpas på flera mycket och måttligt obalanserade datauppsättningar visar en förbättring av prognosprestandan för minoritetsklassen och totalt förbättrade F-värden.
SMOTEBoost algoritm REF kombinerar SMOTE teknik och standard boosting förfarande.
2,391,953
SMOTEBoost: Improving Prediction of the Minority Class in Boosting
{'venue': 'PKDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,353
Abstrakt. Vi tar itu med problemet med återidentifiering genom att effektivt utnyttja en globalt diskriminerande funktionsrepresentation från en sekvens av spårade mänskliga regioner/patcher. Detta är i motsats till tidigare person re-id fungerar, som förlitar sig på antingen enkel ram baserad person till person patch matchning, eller graf baserad sekvens till sekvens matchning. Vi visar att en progressiv/sekventiell fusionsram baserad på långtidsminne (LSTM) nätverk aggregat ramvis mänsklig region representation vid varje tidpunkt stämpel och ger en sekvensnivå mänsklig funktion representation. Eftersom LSTM noder kan komma ihåg och sprida tidigare ackumulerade bra funktioner och glömma nyingång sämre, även med enkla handgjorda funktioner, den föreslagna återkommande funktionen aggregering nätverk (RFA-Net) är effektiv för att generera mycket diskriminerande sekvensnivå mänskliga representationer. Omfattande experimentella resultat på två riktmärken för återidentifiering av personer visar att den föreslagna metoden på ett gynnsamt sätt motverkar de senaste metoderna för omidentifiering av personer. Vår kod finns på https://sites.google.com/site/yanyichao91sjtu/
REF använder nätverket Long-Short Term Memory (LSTM) för att sammanställa ramvis personfunktioner på ett återkommande sätt.
10,400,917
Person Re-Identification via Recurrent Feature Aggregation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,354
Horton+ är ett diagram frågebehandlingssystem som utför deklarativa åtkomstfrågor på en partitionerad tilldelad multi-graf. Den använder ett frågespråk, frågeoptimering och en distribuerad exekvering motor. Frågespråket uttrycker deklarativa åtkomstfrågor, och stöder stängningar och bygger på nod- och kantattribut för att matcha grafsökvägar. Vi introducerar tre algebraiska operatörer, väljer, korsar, och gå, och en fråga sammanställs i en genomförandeplan som innehåller dessa operatörer. Eftersom nåbarhetsförfrågningar får tillgång till grafelementen i ett slumpmässigt åtkomstmönster, bibehålls grafen därför i huvudminnet för ett kluster av servrar för att minska körningstiden för frågor. Vi utvecklar en distribuerad exekveringsmotor som behandlar en frågeplan parallellt på grafservrarna. Eftersom frågespråket är deklarativt, bygger vi en frågeoptimerare som använder grafstatistik för att uppskatta predikat selektivitet. Vi utvärderar systemets prestanda experimentellt på ett kluster av 16 grafservrar med hjälp av syntetiska grafer samt en verklig graf från ett program som använder åtkomstfrågor. Utvärderingen visar 1) optimatorns effektivitet när det gäller att minska tiden för frågeutförande, 2) systemets skalbarhet med grafens storlek och med antalet servrar, och 3) bekvämligheten av att använda deklarativa frågor.
Horton+ REF har implementerats som en distribuerad exekvering motor för Horton frågor som helt hanterar grafen med hjälp av huvudminnet av en kluster av noder.
8,676,636
Horton+: A Distributed System for Processing Declarative Reachability Queries over Partitioned Graphs
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
82,355
Kontroll av körtid är att kontrollera om ett system exekvering uppfyller eller bryter mot en given korrekthet egenskap. Ett förfarande som automatiskt, och typiskt i farten, verifierar att systemets beteende överensstämmer med den angivna egenskapen kallas en övervakare. Numera används en mängd formalismer för att uttrycka egenskaper på observerat beteende hos datorsystem, och många metoder har föreslagits för att konstruera monitorer. Det är dock en vanlig situation när avancerade formalismer och metoder inte behövs, eftersom det finns en körbar modell av systemet. Modellens ursprungliga syfte och struktur är av betydelse; det som krävs är snarare att systemet och dess modell har liknande uppsättningar gränssnitt. I detta fall utförs övervakningen enligt följande: Två "svarta lådor", systemet och dess referensmodell, utförs parallellt och stimuleras med samma ingångssekvenser; monitorn fångar dynamiskt deras utdataspår och försöker matcha dem. Huvudproblemet är att en modell vanligtvis är mer abstrakt än det verkliga systemet, både vad gäller funktionalitet och timing. Därför är trace-to-trace matchning inte enkelt och gör det möjligt för systemet att producera händelser i olika ordning eller ens missa några av dem. I dokumentet studeras konformansförhållandena på flygningen för tidsinställda system (dvs. system vars ingångar och utgångar fördelas längs tidsaxeln). Den föreslår också en praxisorienterad metod för att skapa och konfigurera monitorer för tidsinställda system baserade på körbara modeller. Metoden har framgångsrikt tillämpats på ett antal industriella projekt för simuleringsbaserad hårdvaruverifiering.
I litteraturen sticker begreppet körtidskontroll verkligen ut, som kontrollerar om ett system exekvering uppfyller eller bryter mot en given korrekthet egenskap REF.
8,181,801
Runtime Verification Based on Executable Models: On-the-Fly Matching of Timed Traces
{'venue': 'EPTCS 111, 2013, pp. 67-81', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,356
Abstract-kognitiva små cellnät har föreställts som en lovande teknik för att möta den exponentiellt ökande efterfrågan på mobiltrafik. Nyligen har många tekniska frågor som rör kognitiva småcelliga nätverk studerats, inklusive resursfördelning och störningsbegränsning, men de flesta studier utgår från icke-kooperativa system eller perfekt kanalstatsinformation (CSI). Olika från de befintliga verken, undersöker vi den gemensamma uplink subkanal och makt tilldelning problem i kognitiva små celler med hjälp av kooperativ Nash förhandla spel teori, där cross-tier interference begränsning, minimala avbrott sannolikhetskrav, ofullständig CSI och rättvisa i termer av minimikrav. En enhetlig analytisk ram föreslås för optimeringsproblemet, där den nästan optimala strategin för tilldelning av resurser bygger på Lagrangian dual decomposition genom att införa tidsdelningsvariabler och återkalla Lambert-W-funktionen. Existensen, unikhet och rättvisa av lösningen på detta spelmodell bevisas. Ett kooperativ Nash-förhandling resursalgoritm utvecklas, och visas för att konvergera till en Pareto-optimal jämvikt för det kooperativa spelet. Simuleringsresultat tillhandahålls för att verifiera effektiviteten hos den föreslagna kooperativa spelalgoritmen för effektiv och rättvis resursfördelning i kognitiva småcelliga nätverk.
Författarna till REF undersökte den gemensamma subkanal och makt tilldelning problem med hjälp av kooperativ Nash förhandla spel teori, och upplänk beaktas.
15,041,001
Resource Allocation for Cognitive Small Cell Networks: A Cooperative Bargaining Game Theoretic Approach
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,357
När en fråga misslyckas, är det mer samarbetsvilligt att identifiera orsaken till misslyckandet, snarare än att bara rapportera det tomma svaret som. När det inte finns en orsak i sig för frågans misslyckande, är det då värt att rapportera den del av frågan som misslyckades. För att identifiera en minimal misslyckad underförfrågan (MFS) av frågan är det bästa sättet att göra detta. (Denna MFS är inte unik; det kan finnas många av dem.) På samma sätt, för att identifiera en maximal efterföljande subquery (XSS) kan hjälpa en användare att omarbeta en ny fråga som leder till en icke-tomma svarsuppsättning. Databassystem tillhandahåller inte funktionaliteten hos dessa typer av samverkande svar. Detta kan delvis bero på att algoritmiska metoder för nding MFS och XSS till en felsökning inte är uppenbara. Sökområdet för subqueries är stort. Trots arbete på MFSs i det förflutna, den algoritmiska komplexiteten av dessa identi katjon problem hade förblivit uncharted. Detta dokument visar hur komplex MFS och XSS är. Det visas att det finns en enkel algoritm för nding en MFS eller en XSS genom att fråga N efterföljande frågor, där N är längden på frågan. Till nd fler MFS (eller XSS) kan vara svårt. Det visas att till nd N MFSs (eller XSS) är NP-hård. Till nd k MFSs (eller XSS), för en xed k, förblir polynomial. En optimal algoritm för att räkna MFS och XSS, ISHMAEL, utvecklas och presenteras. Algoritmen har idealisk prestanda i uppräkning, nding rst svar snabbt, och bara sönderfaller mot intractability på ett förutsägbart sätt som ytterligare svar hittas. De komplexa resultat och algoritmiska metoder som anges i detta dokument bör göra det möjligt att bygga samarbetsanläggningar som identifierar MFS och XSS för databassystem. Dessa resultat är relevanta för ett antal problem även utanför databaserna och kan komma att tillämpas ytterligare.
Godfrey har ingående undersökt problemet med att identifiera orsaken till en misslyckad booleansk-query REF.
5,667,399
Minimization in Cooperative Response to Failing Database Queries
{'venue': 'Int. J. Cooperative Inf. Syst.', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,358
Dynamisk textur och scenklassificering är två grundläggande problem när det gäller att förstå naturligt videoinnehåll. Att ta fram robusta och effektiva funktioner är ett viktigt steg mot att lösa dessa problem. De befintliga tillvägagångssätten lider dock av känsligheten för antingen varierande belysning, eller synvinkel förändras, eller till och med kamerarörelse, och / eller bristen på rumslig information. Inspirerad av framgången med djupa strukturer i bildklassificeringen försöker vi utnyttja en djup struktur för att extrahera funktion för dynamisk textur och scenklassificering. För att ta itu med utmaningarna i utbildningen en djup struktur, föreslår vi att överföra lite förkunskaper från bilddomän till videodomän. För att vara specifik, föreslår vi att tillämpa en välutbildad Convolutional Neural Network (ConvNet) som en mellannivå funktionsextraktor för att extrahera funktioner från varje ram, och sedan bilda en representation av en video genom att concretenating den första och den andra ordningen statistik över mitten-nivå funktioner. Vi kallar detta två-nivå funktionsextraktion system som en Transferred ConvNet Feature (TCoF). Dessutom undersöker vi två olika genomföranden av TCoF-systemet, dvs. den rumsliga TCoF och den tidsmässiga TCoF, där de genomsnittliga borttagna ramar och skillnaden mellan två intilliggande ramar används som ingångar av ConvNet, respektive. Vi utvärderar systematiskt de föreslagna rumsliga TCoF-systemen och de tidsbundna TCoF-systemen på tre uppsättningar referensdata, inklusive DynTex, YUPENN och Maryland, och visar att det föreslagna tillvägagångssättet ger överlägsna resultat.
qi m.fl. REF presenterar en dynamisk texturdeskriptor som utnyttjar djup inlärning för att överföra förkunskaper från bilddomänen genom att extrahera globala funktioner med hjälp av ett förutbestämt konvolutionellt neuralt nätverk.
12,647,949
Dynamic texture and scene classification by transferring deep image features
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,359
: Några resultat från vår VRN-Guided metod, på en hel rad pose, inklusive stora uttryck. Abstract 3D ansiktsrekonstruktion är ett grundläggande datorseende problem av extraordinära svårigheter. Nuvarande system antar ofta tillgängligheten av flera ansiktsbilder (ibland från samma ämne) som indata, och måste ta itu med ett antal metodologiska utmaningar som att etablera täta korrespondenser över stora ansiktsposer, uttryck och icke-uniform belysning. I allmänhet kräver dessa metoder komplexa och ineffektiva rörledningar för modellbyggande och montering. I detta arbete föreslår vi att ta itu med många av dessa begränsningar genom att utbilda ett Convolutional Neural Network (CNN) på en lämplig datauppsättning bestående av 2D-bilder och 3D-ansiktsmodeller eller skanningar. Vår CNN arbetar med bara en enda 2D ansiktsbild, kräver inte exakt justering eller etablerar tät korrespondens mellan bilder, verk för godtyckliga ansiktsposer och uttryck, och kan användas för att rekonstruera hela 3D ansiktsgeometri (inklusive de icke-synliga delar av ansiktet) förbi konstruktionen (under utbildning) och montering (under testning) av en 3D Morphable Modell. Vi uppnår detta via en enkel CNN-arkitektur som utför direkt regression av en volymetrisk representation av 3D ansiktsgeometri från en enda 2D-bild. Vi visar också hur den relaterade uppgiften av ansikts landmärke lokalisering kan införlivas i den föreslagna ramen och bidra till att förbättra återuppbyggnaden kvalitet, särskilt för fall av stora poser och ansiktsuttryck. Kod och modeller kommer att finnas tillgängliga på
Jackson och Al. REF föreslog att direkt regressera en volymetrisk representation av 3D-maskan från en enda ansiktsbild med ett konvolutionellt neuralt nätverk.
420,414
Large Pose 3D Face Reconstruction from a Single Image via Direct Volumetric CNN Regression
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
82,360
Sekventiella förutsägelser problem som imitation inlärning, där framtida observationer beror på tidigare förutsägelser (åtgärder), bryter mot den gemensamma i.i.d. Antaganden som gjorts inom ramen för det statistiska lärandet. Detta leder till dåliga resultat i teorin och ofta i praktiken. Vissa nya metoder (Daumé III m.fl., 2009; Ross och Bagnell, 2010) ger starkare garantier i detta sammanhang, men är fortfarande något otillfredsställande eftersom de tränar antingen icke-stationär eller stokastisk politik och kräver ett stort antal iterationer. I detta dokument föreslår vi en ny iterativ algoritm, som tränar en stationär deterministisk politik, som kan ses som en ingen ångra algoritm i en online inlärningsmiljö. Vi visar att ingen sådan ångeralgoritm, i kombination med ytterligare reduktionsantaganden, måste hitta en policy med goda resultat under fördelningen av observationer som den framkallar i sådana sekventiella inställningar. Vi visar att detta nya tillvägagångssätt överträffar tidigare tillvägagångssätt på två utmanande imitation inlärningsproblem och en benchmarking sekvens märkning problem.
Äntligen, Ross et al. REF utvecklar datasetets aggregeringsalgoritm som tränar en deterministisk politik som uppnår goda prestandagarantier under dess inducerade fördelning av stater.
103,456
A Reduction of Imitation Learning and Structured Prediction to No-Regret Online Learning
{'venue': 'AISTATS 2011', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,361
Abstract-This paper föreslår en ny strategi för återidentifiering av personer, en grundläggande uppgift i distribuerade övervakningssystem med flera kameror. Även om en mängd kraftfulla algoritmer har presenterats under de senaste åren, de flesta av dem oftast fokusera på att utforma handgjorda funktioner och inlärningsmått antingen individuellt eller sekventiellt. Vi skiljer oss från tidigare arbeten, vi utformar en enhetlig djuprankning ram som gemensamt tar itu med båda dessa nyckelkomponenter för att maximera sina styrkor. Vi utgår från principen att den korrekta matchningen av sondens bild ska placeras i den översta rangen inom hela galleriet. En effektiv inlärning-till-rank algoritm föreslås för att minimera kostnaden som motsvarar ranking störningar i galleriet. Rankningsmodellen löses med ett djupt konvolutionellt neuralt nätverk (CNN) som bygger relationen mellan indata bildpar och deras likhet poäng genom gemensam representation lärande direkt från rå bild pixlar. Den föreslagna ramen gör att vi kan bli av med funktionsteknik och inte förlitar sig på något antagande. En omfattande jämförande utvärdering görs som visar att vår strategi avsevärt överträffar alla state-of-the-art metoder, inklusive både traditionella och CNN-baserade metoder på utmanande VIPeR, CUHK-01, och CAVIR4REID datauppsättningar. Dessutom har vår strategi bättre förmåga att generalisera över datauppsättningar utan finjustering. Index Terms-Person om-identifikation, djupa konvolutionella neurala nätverk, lära sig att rangordna.
Chen och Al. REF kombinerade två bilder horisontellt för att bilda en bild som användes som indata, och föreslog en lärande-till-rank algoritm för att minimera kostnaden som motsvarar ranking störningar i galleriet.
17,569,238
Deep Ranking for Person Re-Identification via Joint Representation Learning
{'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,362
Sannolikheten för fördelning av antalet band mellan en individ i ett socialt nätverk följer en skalfri maktlag. Hur denna fördelning uppstår har dock inte på ett avgörande sätt visats i direkta analyser av människors handlingar i sociala nätverk. Här utför vi en kausal inference analys och hitta en underliggande orsak till detta fenomen. Vår analys visar att distributionen av tungstjärtad grad beror på en liknande skev fördelning av mänsklig aktivitet. I synnerhet är graden av en individ helt slumpmässig - efter en "maximal entropi bilaga" modell - utom för dess medelvärde som deterministiskt beror på volymen av användarnas verksamhet. Detta förhållande kan inte förklaras av interaktiva modeller, som preferensattachment, eftersom de observerade åtgärderna sannolikt inte orsakas av interaktioner med andra människor.
Muchnik m.fl. REF visade att distributionen av tunga klyftor i nätverk beror på liknande skeva distributioner av mänsklig verksamhet.
14,475,386
Origins of power-law degree distribution in the heterogeneity of human activity in social networks
{'venue': 'Scientific Reports, 3, 1783 (2013)', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Medicine', 'Physics', 'Computer Science']}
82,363
I detta dokument studeras hur man införlivar det externa ordet korrelationskunskap för att förbättra samstämmigheten i ämnesmodellering. Befintliga ämnesmodeller antar att ord genereras självständigt och saknar mekanismen för att utnyttja de rika likheterna mellan ord för att lära sig sammanhängande ämnen. För att lösa detta problem bygger vi en Markov Random Field (MRF) legaliserad Latent Dirichlet Allocation (LDA) modell, som definierar en MRF på latent ämne lager av LDA för att uppmuntra ord som heter som liknar att dela samma ämne etikett. Enligt vår modell är ämnestilldelningen för varje ord inte oberoende, utan påverkas snarare av ämnesetiketterna för dess korrelerade ord. Liknande ord har bättre chans att sättas in i samma ämne på grund av legaliseringen av MRF, varför samstämmigheten i ämnen kan ökas. Dessutom kan vår modell rymma den subtilitet som huruvida två ord är lika beror på vilket ämne de visas i, vilket gör att ord med flera sinnen kan sättas in i olika ämnen på rätt sätt. Vi härleder en variationell inferens metod för att härleda de bakre sannolikheterna och lära modellparametrar och presentera tekniker för att hantera den svårbearbetade partitionsfunktionen i MRF. Experiment på två datauppsättningar visar hur effektiv vår modell är.
I arbetet av REF, författarna bygga en Markov Random Field (MRF) legaliserade LDA modell, som definierar en MRF på latent ämne lager av LDA för att skapa bättre chans för liknande ord att visas i samma ämne.
12,964,671
Incorporating Word Correlation Knowledge into Topic Modeling
{'venue': 'HLT-NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,364
Stabiliteten i kluster är en allvarlig fråga i mobila ad hoc-nät. Låg stabilitet i kluster kan leda till snabba misslyckanden i kluster, hög energiförbrukning för återklustring och minskad total nätstabilitet i mobila ad hoc-nät. För att förbättra stabiliteten i kluster används viktbaserade klusteralgoritmer. Dessa algoritmer använder dock endast begränsade egenskaper hos noderna. På så sätt minskar de viktnoggrannheten när det gäller att bestämma nodens kompetens och leder till felaktig val av klusterhuvuden. En ny viktbaserad algoritm som presenteras i detta dokument bestämmer inte bara nodens vikt med hjälp av sina egna funktioner, utan också den direkta effekten av funktionen hos angränsande noder. Det bestämmer vikten av virtuella kopplingar mellan noder och effekten av vikterna på att bestämma nodens slutliga vikt. Genom att använda denna strategi, den högsta vikten tilldelas de bästa valen för att vara kluster huvuden och noggrannheten av noder valet ökar. Prestandan hos den nya algoritmen analyseras med hjälp av datorsimulering. Resultaten visar att de producerade klusteren har längre livslängd och högre stabilitet. Matematisk simulering visar att denna algoritm har hög tillgänglighet vid fel.
Abbas Karimi et al REF föreslog A Novel Clustering Algorithm for Mobile Ad Hoc Networks baserade på bestämning av virtuella länkars vikt för att öka nätverksstabiliteten.
13,439,457
A Novel Clustering Algorithm for Mobile Ad Hoc Networks Based on Determination of Virtual Links' Weight to Increase Network Stability
{'venue': 'The Scientific World Journal', 'journal': 'The Scientific World Journal', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,365
Programinvarianter kan hjälpa programutvecklare identifiera programegenskaper som måste bevaras när programvaran utvecklas, men att formulera korrekta invarianter kan vara utmanande. I detta arbete introducerar vi iDiscovery, en teknik som utnyttjar symboliskt utförande för att förbättra kvaliteten på dynamiskt upptäckta invarianter som beräknas av Daikon. Kandidatinvarianter som genereras av Daikon syntetiseras till påståenden och instrumenteras på programmet. Den instrumenterade koden körs symboliskt för att generera nya testfall som matas tillbaka till Daikon för att ytterligare förfina uppsättningen kandidatinvarianter. Denna feedbackloop körs tills en fix-punkt nås. För att minska kostnaden för symboliskt utförande presenterar vi optimeringar för att beskära det symboliska tillståndsutrymmet och för att minska komplexiteten i de genererade vägförhållandena. Vi utnyttjar också de senaste framstegen inom teknik för återanvändning av restriktionslösningar för att undvika datorresultat för samma begränsningar över iterationer. Experimentella resultat visar att iDiscovery konvergerar till en uppsättning av högre kvalitet invarianter jämfört med den ursprungliga uppsättningen kandidatinvarianter i ett litet antal iterationer.
Zhang et al:s arbete. I REF införs iDiscovery, som syftar till att förbättra kvaliteten på orakel iterativt med hjälp av symbolisk avrättning.
14,604,686
Feedback-driven dynamic invariant discovery
{'venue': 'ISSTA 2014', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,366
Generaliseringen och inlärningshastigheten i ett flerklassigt neuralt nätverk kan ofta förbättras avsevärt genom att använda mjuka mål som är ett vägt genomsnitt av de hårda målen och den enhetliga fördelningen över etiketter. Slätning av etiketterna på detta sätt hindrar nätverket från att bli överkonfidentiellt och märkningsutjämning har använts i många toppmoderna modeller, inklusive bildklassificering, språköversättning och taligenkänning. Trots att märkningen används i stor utsträckning är den fortfarande dåligt förstådd. Här visar vi empiriskt att förutom att förbättra generaliseringen, förbättrar etikettutjämning modellkalibreringen vilket avsevärt kan förbättra strålsökningen. Men vi observerar också att om ett lärarnätverk utbildas med märkningsutjämning, är kunskapsdestillering till ett studentnätverk mycket mindre effektivt. För att förklara dessa observationer visualiserar vi hur etikett utjämning ändrar de representationer som lärts av det näst sista skiktet av nätverket. Vi visar att etikettutjämning uppmuntrar representationer av utbildningsexempel från samma klass till grupp i trånga kluster. Detta resulterar i förlust av information i loggen om likheter mellan fall av olika klasser, vilket är nödvändigt för destillation, men inte skadar generalisering eller kalibrering av modellens förutsägelser.
Den senaste forskningen REF på etikett utjämning empiriskt visar att det förbättrar modellkalibrering.
174,802,983
When Does Label Smoothing Help?
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,367
Vi tar en end-to-end, sekvens-to-sequence lärande metod för uppgiften att följa naturligt språk rutt instruktioner, dvs. att kartlägga naturligt språk instruktioner till åtgärder sekvenser. Vår modell är en dubbelriktad, anpassningsbaserad, lång korttidsminne återkommande neurala nätverk (LSTM RNN) som kodar friform navigering instruktion mening och motsvarande representation av miljötillståndet. Vi föreslår en multi-level conjuster som en del av vårt nätverk som ger modellen för att fokusera på framträdande mening "regioner", med hjälp av både hög- och låg nivå input representationer. Denna anpassningsbaserade LSTM avkodar sedan den inlärda representationen för att få den resulterande åtgärdssekvensen. Att lägga till dubbelriktadhet i nätverket hjälper ytterligare. I motsats till befintliga metoder använder vår modell ingen ytterligare information eller resurser om uppgiften eller språket (t.ex. tolkar eller frölexikon) och uppnår fortfarande de bästa resultat som rapporterats hittills på ett riktmärke för en enda deltagare datauppsättning och ger konkurrenskraftiga resultat för den begränsade utbildningen multi-sentence inställning. Vi utvärderar vår modell genom en serie ablationsstudier som belyser bidragen från de primära komponenterna i vår modell.
REF fokuserar på neural kartläggning av navigeringsinstruktioner till åtgärder sekvenser genom att representera tillståndet i världen med hjälp av säck-of-words visuella funktioner.
979,457
Listen, Attend, and Walk: Neural Mapping of Navigational Instructions to Action Sequences
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,368
Vi presenterar en algoritm för att upprätthålla maximal matchning i en graf under tillägg och radering av kanter. Vår datastruktur är randomiserad som tar O(log n) förväntad amorterad tid för varje edge update där n är antalet hörn i grafen. Även om det finns en trivial O(n) algoritm för edge update, det tidigare mest kända resultatet för detta problem berodde på Ivković och Llyod [4]. För en graf med n hörn och m kanter, ger de en O (n + m) 0.7072 ) uppdatering tid algoritm som är sublinear endast för en gles graf. För det relaterade problemet med maximal matchning utformade Onak och Rubinfeld [6] en randomiserad datastruktur som uppnår O(log 2 n) förväntad avskrivningarad tid för varje uppdatering för att upprätthålla en c-ungefärlig maximal matchning för några stora konstant c. Däremot kan vi upprätthålla en faktor två ungefärlig maximal matchning i O(log n) förväntad amorterad tid per uppdatering som en direkt följd av det maximala matchningsschemat. Detta i sin tur innebär också en två ungefärliga vertex cover underhållsschema som tar O(log n) förväntad amortized tid per uppdatering.
Baswana m.fl. REF ger en randomiserad 2- approximation i O(log n) amorterad tid.
13,250,599
Fully Dynamic Maximal Matching in O (log n) Update Time
{'venue': '2011 IEEE 52nd Annual Symposium on Foundations of Computer Science', 'journal': '2011 IEEE 52nd Annual Symposium on Foundations of Computer Science', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,369
Sensorkonvergensen på mobiltelefonen ger upphov till en bred bas av nya och intressanta mobila applikationer. Allteftersom tillämpningar växer i sofistikering, kräver råa sensoravläsningar ofta klassificering i mer användbara tillämpningsspecifika data på hög nivå. Till exempel kan GPS-avläsningar klassificeras som löpning, gång eller cykling. Tyvärr byggs inte traditionella klassificeringar för de mobila systemens utmaningar: energi, latens och mobilens dynamik. Kobe är ett verktyg som hjälper mobil klassificeringsutveckling. Med hjälp av ett SQL-liknande programmeringsgränssnitt utför Kobe profilering och optimering av klassificeringar för att uppnå en optimal avvägning mellan energi-latens och noggrannhet. Vi visar genom experiment på fem verkliga scenarier, klassificerare på Kobe uppvisar snävt utnyttjande av tillgängliga resurser. För jämförbara nivåer av noggrannhet lider traditionella klassificeringar, som inte står för resurser, mellan 66 % och 176 % längre latens och användning mellan 31 % och 330 % mer energi. Från erfarenhet av att använda Kobe till prototyp två nya applikationer, observerar vi att Kobe möjliggör enklare utveckling av mobil avkänning och klassificering apps.
Chu och al. REF har utvecklat Kobe: ett verktyg som utför profilering och optimering av mobila inbäddade klassificeringar för att uppnå en optimal avvägning mellan energi-latens och noggrannhet.
12,284,767
Balancing energy, latency and accuracy for mobile sensor data classification
{'venue': 'SenSys', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,370
Abstract-I motsats till konventionella nätverk, mobila ad hoc-nätverk ger vanligtvis inte online-åtkomst till betrodda myndigheter eller till centraliserade servrar, och de uppvisar frekventa partitionering på grund av länk-och nodfel och nod rörlighet. Av dessa skäl är traditionella säkerhetslösningar som kräver betrodda myndigheter på nätet eller certifikatförråd inte lämpliga för att säkra ad hoc-nätverk. I detta dokument föreslår vi ett helt självorganiserat offentligt nyckelhanteringssystem som gör det möjligt för användare att generera sina offentligprivata nyckelpar, att utfärda certifikat, och att utföra autentisering oavsett nätverkspartitioner och utan några centraliserade tjänster. Dessutom kräver vårt tillvägagångssätt ingen pålitlig myndighet, inte ens i systeminitieringsfasen.
Capkun m.fl. I REF föreslogs ett självorganiserat system för förvaltning av nyckeltal där varje nod utfärdar certifikat oberoende av varandra och förvaltar dem i sin databas.
15,478,529
Self-Organized Public-Key Management for Mobile Ad Hoc Networks
{'venue': 'IEEE Trans. Mob. Comput.', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,371
Abstrakt. Vi studerar deterministiska sändningar i radionät i det nyligen införda ramverket av nätverksalgoritmer med råd. Vi koncentrerar oss på problemet med kompromisser mellan antalet informationsbitar (storlek på rådgivning) som noderna har tillgång till och den tid då sändningar kan genomföras. I synnerhet frågar vi vad som är det minsta antalet bitar av information som måste vara tillgängliga för noder i nätverket, för att kunna sända mycket snabbt. För nätverk där ständig tidssändning är möjlig under fullständig kunskap om nätverket ger vi ett snävt svar på ovanstående fråga: O(n) bitar av råd är tillräckliga men o(n) bitar är inte, för att uppnå konstant sändningstid i alla dessa nätverk. Detta står i skarp kontrast till geometriska radionät med konstant sändningstid: vi visar att ett konstant antal bitar i dessa nät räcker för att sända i konstant tid. För godtyckliga radionät presenterar vi en sändningsalgoritm vars tid är omvänt proportionell till rådens storlek.
I REF studerade författarna radionät för vilka det är möjligt att utföra centraliserad sändning under konstant tid.
12,362,243
Fast radio broadcasting with advice
{'venue': 'THEOR. COMPUT. SCI', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,372
Abstract-Människor och djur är kapabla att lära sig ett nytt beteende genom att observera andra utföra skickligheten bara en gång. Vi överväger problemet med att låta en robot göra sammainlärning från en rå video pixlar av en människa, även när det finns betydande domänförskjutning i perspektivet, miljön och förkroppsligande mellan roboten och den observerade människan. Tidigare tillvägagångssätt till detta problem har hand specificerat hur mänskliga och robot åtgärder motsvarar och ofta förlitat sig på explicita mänskliga pose detektionssystem. I detta arbete presenterar vi en strategi för oneshot-inlärning från en video av en människa genom att använda mänskliga och robotdemonstrationsdata från en mängd tidigare uppgifter för att bygga upp förkunskaper genom meta-learning. Då, kombinera denna förkunskaper och bara en enda videodemonstration från en människa, roboten kan utföra den uppgift som människan demonstrerade. Vi visar experiment på både en PR2-arm och en Sawyer-arm, som visar att roboten efter meta-lärande kan lära sig att placera, pusha och pick-and-place nya objekt med hjälp av bara en video av en människa som utför manipuleringen.
Yu m.fl. föreslog en meta-learning-baserad metod REF för att koda förkunskaper från några tusentals demonstrationer av människor/robotar, och sedan lärde sig en ny uppgift från en demonstration.
3,618,072
One-Shot Imitation from Observing Humans via Domain-Adaptive Meta-Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,373
Abstract-This paper ger en omfattande översikt över befintlig forskning inom området programvara refaktoring. Denna forskning jämförs och diskuteras utifrån ett antal olika kriterier: de refaktoring aktiviteter som stöds, de specifika tekniker och formalismer som används för att stödja dessa aktiviteter, de typer av programvaruartefakter som refaktoriseras, de viktiga frågor som måste beaktas när man bygger refaktoring verktygsstöd, och effekten av refaktoring på programvaruprocessen. Ett löpande exempel används i hela tidningen för att förklara och illustrera huvudbegreppen.
Mens och Tourwé REF gjorde en omfattande litteraturundersökning om den befintliga forskningen om allmän programvara refaktoring, som bygger på olika forskningsperspektiv såsom refaktoring aktiviteter, specifika tekniker för att stödja dessa aktiviteter, typer av programvara artefakter som ska refaktors, och refaktoring effekter.
206,778,272
A survey of software refactoring
{'venue': 'IEEE Transactions on Software Engineering', 'journal': 'IEEE Transactions on Software Engineering', 'mag_field_of_study': ['Computer Science']}
82,374
Abstract-This paper tar upp problemet med gruppvägplanering samtidigt som gruppsammanhållning och uthållighet upprätthålls. Gruppsammanhållning säkerställer att en grupp minimerar både longitudinell och lateral dispersion och uppnås med införandet av en deformationspåföljd för kostnadsformuleringen. När deformationspåföljden är betydligt hög, kan en grupp delas och senare slås samman. Gruppens persistens är modellerad genom att införa split och slå samman åtgärder i åtgärdsområdet, och lägga till en delad straffavgift till kostnadsåtgärden. Vi formulerar problemdomänen (tillstånd, åtgärdsutrymme och kostnadsformulering), presenterar vår strategi för vägplanering för sammanhållna och ihållande grupper, och ger empiriska resultat som visar vår metods förmåga på en mängd olika utmanande scenarier.
Huang m.fl. I REF presenteras en vägplaneringsmetod för att simulera sammanhängande och ihållande grupper.
9,626,241
Path planning for coherent and persistent groups
{'venue': '2014 IEEE International Conference on Robotics and Automation (ICRA)', 'journal': '2014 IEEE International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,375
Medicinska bilder kan avsiktligt eller oavsiktligt manipuleras både i den säkra medicinska systemmiljön och utanför, eftersom bilder ses, extraheras och överförs. Många organisationer har investerat mycket i bildarkivering och kommunikationssystem (PACS), som är avsedda att underlätta datasäkerheten. Det är dock vanligt att bilder, och register, extraheras från dessa för ett brett spektrum av accepterade metoder, såsom externa andra yttranden, överföring till en annan vårdgivare, begäran om patientdata, etc. Därför har det blivit nödvändigt att bekräfta förtroendet för arbetsflöden inom medicinsk avbildning. Digital vattenmärkning har erkänts som ett lovande tillvägagångssätt för att säkerställa de medicinska bildernas äkthet och integritet. Autenticitet avser förmågan att identifiera informationens ursprung och bevisa att uppgifterna avser rätt patient. Med integritet avses förmågan att säkerställa att informationen inte har ändrats utan tillstånd. I denna rapport presenteras en undersökning av medicinska bilder vattenmärkning och en tydlig scen för berörda forskare genom att analysera robustheten och begränsningarna i olika befintliga metoder. Detta omfattar studier av säkerhetsnivåerna för medicinska bilder inom PACS-systemet, klargörande av kraven för medicinska bilder vattenmärkning och fastställande av syftet med vattenmärkningsmetoder när de tillämpas på medicinska bilder.
Den prioriterade ordningen för autentiserings- och integritetstillämpningar är omärklighet, robusthet och kapacitet REF.
3,475,060
Digital watermarking: Applicability for developing trust in medical imaging workflows state of the art review
{'venue': 'Comput. Sci. Rev.', 'journal': 'Comput. Sci. Rev.', 'mag_field_of_study': ['Computer Science']}
82,376
Sammanfattning av denna webbsida: Samarbete anses allmänt vara till nytta för lärande. Samarbete är ett ömsesidigt engagemang från deltagarnas sida i en samordnad insats för att lösa ett problem tillsammans. Det har på ett avgörande sätt hävdats att det är nödvändigt att fokusera på samarbetsprocessen för att förstå värdet av att arbeta tillsammans med andra för lärande. I enlighet med öppen distribuerad inlärningsmiljö (ODLEs) har vi utvecklat ett ramverk för datorstödd samverkansutbildning och arbete. Detta distribuerade system med delade arbetsytor är väl lämpat för övervakning och bedömning av gruppinteraktioner i samlokaliserade och avlägsna scenarier. Det ger anpassningsbara mekanismer för automatiserad mikroanalys av samarbetsprocesser samt för visualisering och återkoppling. Systemet har använts för att fastställa konflikter i fokusering samt initiativskiften i aggregerings- och revideringsfaser under ett urval av samarbetsmöten om problemlösning av pussel.
Muhlenbrock och Hoppe REF utvecklade ett system för datorstödd samverkan.
16,963,676
Computer Supported Interaction Analysis of Group Problem Solving
{'venue': 'Stanford University', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,377
Vi anser att två konkurrerande första passage percolation processer startade från enhetligt utvalda undergrupper av en slumpmässig regelbunden graf på N hörn. Processerna får spridas med olika hastigheter, börja från vertex undergrupper av olika storlekar eller vid olika tidpunkter. Vi får snäva resultat när det gäller storleken på de vertex uppsättningar som tas upp av varje process, visar att i den generiska situationen kommer en process att uppta och (1)N α hörn, för cirka 0 < α < 1. Värdet av α beräknas i termer av den relativa hastigheten av processerna, liksom storleken på de initiala vertex-uppsättningarna och den möjliga tidsfördelen av en process. Motiveringen till detta arbete kommer från studien av viral marknadsföring på sociala nätverk. De beskrivna processerna kan ses som två konkurrerande produkter som sprids genom ett socialt nätverk (slumpmässigt regelbundet diagram). Med tanke på de processer som växer i olika takt (vilket motsvarar olika attraktionsnivåer för de två produkterna) eller som börjar vid olika tidpunkter (den första till marknadsfördelar) kan man modellera aspekter av verklig konkurrens. De erhållna resultaten kan tolkas som en av de två produkter som står för den största delen av marknaden. Vi jämför dessa resultat med samma process på d dimensional rutnät där vi visar att i den generiska situationen kommer de två produkterna att ha en linjär del av marknaden vardera.
Nyligen, i REF, konkurrerande första passage percolation har studerats på så kallade slumpmässiga regelbundna grafer, som kan genereras av konfigurationsmodellen med konstant grad, det vill säga med
27,618,245
Competing first passage percolation on random regular graphs
{'venue': None, 'journal': 'arXiv: Probability', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,378
I detta dokument introducerar vi en tillämpning av matris factorization för att producera corpus-deriverade, fördelningsmodeller av semantik som visar kognitiv rimlighet. Vi finner att ordrepresentationer inlärda av non-Negative Sparse Embedding (NNSE), en variant av matris factorization, är glesa, effektiva och mycket tolkningsbara. Såvitt vi vet är detta det första tillvägagångssättet som ger semantisk representation av ord som tillfredsställer dessa tre önskvärda egenskaper. Även om omfattande experimentella utvärderingar av flera verkliga uppgifter och datauppsättningar visar vi att de semantiska modeller som NNSE lärt sig är överlägsna andra state-of-the-art basics.
REF föreslog NNSE (icke-Negativ Sparse Embeddings) för att lära sig tolkningsbara ord inbäddade.
8,348,149
Learning Effective and Interpretable Semantic Models using Non-Negative Sparse Embedding
{'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,379
Abstrakt. Sensornätverk används i stor utsträckning för mät-, detekterings- och övervakningstillämpningar. I dessa nya program, användare utfärdar långvariga frågor över en kombination av lagrade data och sensordata. De flesta befintliga applikationer förlitar sig på ett centraliserat system för insamling av sensordata. Dessa system saknar flexibilitet eftersom data extraheras på ett fördefinierat sätt; också, de inte skala till ett stort antal enheter eftersom stora volymer av rådata överförs oavsett de frågor som lämnas in. I vårt nya koncept för sensordatabassystem dikterar frågor vilka data som extraheras från sensorerna. I det här dokumentet definierar vi en modell för sensordatabaser. Lagrade data representeras som relationer medan sensordata representeras som tidsserier. Varje långsiktig fråga formulerad över en sensor databas definierar en ihållande vy, som upprätthålls under ett givet tidsintervall. Vi beskriver även designen och implementeringen av COUGAR sensor databassystem.
I REF fokuserar författarna på att definiera en sensor databasmodell för behandling av långvariga frågor, som modelleras som ihållande vyer över den distribuerade sensordatabasen.
320,124
Towards Sensor Database Systems
{'venue': 'Mobile Data Management', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,380
Abstract-Knowing exakt var en mobil enhet är och övervaka sin bana i realtid har nyligen lockat en hel del intressen från både den akademiska och industriella samhällen, på grund av det stora antal tillämpningar som den möjliggör; dock är det idag ett av de mest utmanande problem ur vetenskaplig och teknisk synvinkel. I detta arbete föreslår vi ett spårningssystem baserat på sammanslagning av positionsuppskattningar som tillhandahålls av olika källor, som kombineras för att få en slutlig uppskattning som syftar till att ge förbättrad noggrannhet med avseende på de som genereras av varje system individuellt. I synnerhet utnyttjar tillgången till ett trådlöst sensornätverk som infrastruktur, en mobil enhet utrustad med ett tröghets system först får positionsuppskattning med hjälp av både ett Kalman Filter och en fullt distribuerad positionering algoritm (den förbättrade Steepest Descent, som vi nyligen föreslog), sedan kombinerar resultaten med hjälp av Simple Convex Kombination algoritm. Simuleringsresultaten visar tydligt goda resultat när det gäller den slutliga noggrannheten. Slutligen valideras den föreslagna tekniken mot verkliga data från en tröghetssensor som tillhandahålls av THALES ITALIA.
Ett något annorlunda tillvägagångssätt föreslås av REF, där en enkel Convex Kombination algoritm används.
5,691,958
Entity Localization and Tracking: A Sensor Fusion-Based Mechanism in WSNs
{'venue': '2011 IEEE International Conference on High Performance Computing and Communications', 'journal': '2011 IEEE International Conference on High Performance Computing and Communications', 'mag_field_of_study': ['Computer Science']}
82,381
Automatiserad testning av programvara syftar till att upptäcka fel genom att producera testingångar som täcker så mycket av applikationens källkod som möjligt. Applikationer för mobila enheter är vanligtvis händelsedrivna, vilket väcker utmaningen att automatiskt producera händelsesekvenser som resulterar i hög täckning. Vissa befintliga metoder använder slumpmässiga eller modellbaserade tester som till stor del behandlar applikationen som en svart låda. Andra metoder använder symbolisk exekvering, antingen från ingångspunkterna i applikationerna eller på specifika händelsesekvenser. En vanlig begränsning av de befintliga tillvägagångssätten är att de ofta inte når de delar av tillämpningskoden som kräver mer komplexa händelsesekvenser. Vi föreslår en tvåfasteknik för att automatiskt hitta händelsesekvenser som når en given mållinje i applikationskoden. Den första fasen utför konkolisk körning för att bygga sammanfattningar av de enskilda händelsehandhavarna av ansökan. Den andra fasen bygger händelsesekvenser bakåt från målet, med hjälp av sammanfattningarna tillsammans med en UI-modell av ansökan. Våra experiment på en samling av öppen källkod Android-applikationer visar att denna teknik kan framgångsrikt producera händelsesekvenser som når utmanande mål.
Till exempel Jensen et al. föreslås att använda konkolisk körning för att bygga sammanfattningar av enskilda händelsehanterare och sedan generera händelsesekvenser bakåt, för att hitta händelsesekvenser som når en given mållinje kod i Android-appen REF.
11,741,816
Automated testing with targeted event sequence generation
{'venue': 'ISSTA 2013', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,382
Konvolutionella neurala nätverk (CNN) har lett till många toppmoderna resultat som spänner över olika områden. Det saknas dock fortfarande en tydlig och djupgående teoretisk förståelse av det framåtriktade passet, CNN:s kärnalgoritm. Parallellt med detta har Convolutional Sparse Coding (CSC) fått allt större uppmärksamhet under de senaste åren. En teoretisk studie av denna modell genomfördes nyligen, där den fastställdes som ett pålitligt och stabilt alternativ till den vanliga patchbaserade bearbetningen. Här föreslår vi en ny flerskiktsmodell, ML-CSC, där signaler antas komma från en kaskad av CSC-skikt. Detta har visat sig vara tätt anslutet till CNN, så mycket att CNN:s framfart i själva verket är den tröskeljakt som tjänar ML-CSC-modellen. Denna anslutning ger en ny syn på CNN, som vi kan tillskriva denna arkitektur teoretiska påståenden såsom unika representationer i hela nätverket, och deras stabila uppskattning, alla garanterade under enkla lokala gleshet förhållanden. Slutligen föreslår vi, genom att identifiera svagheterna i det ovan nämnda programmet, ett alternativ till det framåtgående passet, som är kopplat till dekonvolutionära, återkommande och kvarvarande nätverk, och som har bättre teoretiska garantier.
På senare tid, Papyan et al. I REF föreslogs att CNN:s framåtriktade passering skulle omtolkas som en tröskeljakt på signaler som modellerats genom en ny modell för multi-Layer Convolutional Sparse Coding (ML-CSC).
2,174,078
Convolutional Neural Networks Analyzed via Convolutional Sparse Coding
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,383
Oöverträffad bild-till-bild-översättning syftar till att lära sig en gemensam distribution av bilder i olika domäner genom att använda bilder från de marginella distributionerna i enskilda domäner. Eftersom det finns en oändlig uppsättning gemensamma distributioner som kan komma fram till de givna marginella distributionerna, kunde man inte dra några slutsatser om den gemensamma distributionen från marginaldistributionerna utan ytterligare antaganden. För att ta itu med problemet, vi gör en delad-latent utrymme antagande och föreslå en oövervakad bild-till-bild översättning ramar baserat på Pared GANs. Vi jämför det föreslagna ramverket med konkurrerande metoder och presenterar högkvalitativa bildöversättningsresultat på olika utmanande oövervakade bildöversättningsuppgifter, inklusive street scen bildöversättning, djur bildöversättning, och ansiktsbild översättning. Vi tillämpar också den föreslagna ramen för domänanpassning och uppnår toppmoderna resultat på referensdatauppsättningar. Kod och ytterligare resultat finns tillgängliga på https://github.com/mingyuliutw/unit.
Image-to-Image Översättning Image-to-image översättning är ett visionsproblem som syftar till att lära kartläggningen mellan två olika men relevanta bilddomäner REF.
3,783,306
Unsupervised Image-to-Image Translation Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,384
Abstract-Centrality är ett begrepp som ofta används i sociala nätverksanalyser för att studera olika egenskaper hos nätverk som modelleras som grafer. Vi presenterar en ny centralitetsmätare kallad Localized Bridging Centrality (LBC). LBC är baserat på Bridging Centrality (BC) metrisk som Hwang et al. nyligen introducerad. Överbryggande noder är noder som är strategiskt belägna mellan starkt sammankopplade regioner. LBC kan identifiera överbryggande noder med en noggrannhet som är jämförbar med BC-måttet för de flesta nätverk. Som namnet antyder, använder vi endast lokal information från omgivande noder för att beräkna LBC metriska, medan, global kunskap krävs för att beräkna BC metriska. Den största skillnaden mellan LBC och BC är att LBC använder den egocentriska definitionen av mellanhet centralitet för att identifiera överbryggande noder, medan BC använder den sociocentriska definitionen av mellanhet centralitet. Således är vår LBC metrisk lämplig för distribuerad eller parallell beräkning och har fördelen av att vara en storleksordning snabbare att beräkna i beräkningskomplex. Vi jämför resultaten från BC och LBC i tre exempel. Vi tillämpade vårt LBC-mått för nätverksanalys av ett riktigt trådlöst nätnät. Våra resultat indikerar att LBC metrisk är lika kraftfull som BC metrisk på att identifiera överbryggande noder. LBC metrisken är därför ett viktigt verktyg som kan hjälpa nätverksadministratörer att identifiera kritiska noder som är viktiga för nätverkets robusthet på ett distribuerat sätt.
Nanda och Kotz REF föreslår en ny centralitetsmätare kallad Localized Bridging Centrality (LBC).
2,609,657
Localized Bridging Centrality for Distributed Network Analysis
{'venue': '2008 Proceedings of 17th International Conference on Computer Communications and Networks', 'journal': '2008 Proceedings of 17th International Conference on Computer Communications and Networks', 'mag_field_of_study': ['Computer Science']}
82,385
Mängden sekvensinformation i offentliga arkiv ökar snabbt. Även om dessa data sannolikt kommer att innehålla kliniskt viktig information som ännu inte har upptäckts, vår förmåga att effektivt minera dessa databaser är begränsad. Här introducerar vi Sequence Bloom Trees (SBT), en metod för att fråga tusentals kortlästa sekvenseringsexperiment efter sekvens, 162 gånger snabbare än befintliga tillvägagångssätt. Tillvägagångssättet söker stora dataarkiv för alla experiment som involverar en given sekvens. Vi använder SBTs för att söka 2.652 mänskliga blod, bröst och hjärna RNA-seq experiment för alla 214.293 kända transkript på under 4 dagar med mindre än 239 MB RAM och en enda CPU. Att söka sekvensarkiv i denna skala och i denna tidsram är för närvarande inte möjligt med hjälp av befintliga verktyg. National Institutes of Health (NIH) Sequence Read Archive (SRA) 1 innehåller ~3 petabaser av sekvensinformation som kan användas för att besvara biologiska frågor som enstaka experiment inte har befogenhet att ta itu med. Att söka i hela en sådan databas efter en sekvens har dock inte varit möjligt i rimlig beräkningstid. Vissa framsteg har gjorts mot att möjliggöra sekvenssökningar på stora databaser. NIH SRA ger en sekvens sökning funktionalitet 2 ; dock är sökningen begränsad till ett begränsat antal experiment. Befintliga fulltext indexering datastrukturer såsom Burrows-Wheeler transform 3, FM-index 4 eller andra 5-7 är för närvarande oförmögna att minera data av denna skala. Word-baserade index 8, 9, såsom de som används av internet sökmotorer, är inte lämpliga för editdistans-baserade biologiska sekvens sökningar. Den sekvensspecifika lösningen caBLAST och dess varianter 10-12 kräver ett index av kända genom, gener eller proteiner, och kan därför inte söka efter nya sekvenser. Dessutom kan ingen av dessa befintliga metoder matcha en frågesekvens q som spänner över många korta avläsningar. Här använder vi en indexeringsdatastruktur, Sequence Bloom Tree (SBT), för att identifiera alla experiment i en databas som innehåller en given frågesekvens q. En fråga är en godtycklig sekvens, såsom en utskrift. SBT-indexet är oberoende av eventuella frågor, så metoden är inte begränsad till att söka efter kända sekvenser, och indexet kan effektivt byggas och lagras i begränsat utrymme. Det kräver inte heller att originalsekvensfilerna behålls och kan distribueras separat från data. SBT är dynamiska, vilket möjliggör införande och radering av nya experiment. En grovkornig version av en SBT kan laddas ner och därefter förfinas eftersom mer specifika resultat behövs. De kan sökas med hjälp av lågt minne för existensen av godtyckliga frågesekvenser. Vi visar att SBTs kan söka stora samlingar av RNA-seq experiment för en given transkript order av magnitud snabbare än befintliga metoder. RESULTAT SBTs skapa en hierarki av komprimerade blomfilter 13, 14, som effektivt lagra en uppsättning objekt. Varje blomfilter innehåller den uppsättning k-mers (längd-k subsekvenser) som finns i en delmängd av sekvenseringsförsöken. SBT är binära träd där sekvenseringsförsöken är förknippade med blad, och varje nod v i SBT innehåller ett blomfilter som innehåller den uppsättning k-mers som finns i varje avläsning i varje experiment i underträdet rotat vid v (Supplementary Fig. 1).................................................................. Vi minskade utrymmet användning genom att använda blomfilter som komprimeras av RRR 15 komprimeringsschema (Online Methods). Hierarkier av blomfilter har använts för datahantering på distribuerade system 16. Men de har inte tidigare tillämpats på sekvenssökning, och vi finner att detta gör att vi kan justera blomfilter felfrekvensen mycket högre än i andra sammanhang (Theorem 2, Online Methods), kraftigt minska utrymmeskraven. Bloom filter har också använts för att lagra implicita de Bruijn grafer 17,18, och en vy av SBTs är som en generalisering av detta till flera grafer. Vi använde SBT för att söka RNA-seq experiment för uttryckta isoformer. Vi byggde ett SBT på 2.652 RNA-seq experiment i SRA för humant blod, bröst och hjärnvävnad ( Kompletterande tabell 1). Hela SBT krävde endast 200 GB (2,3% av storleken på de ursprungliga sekvenseringsdata) ( Kompletterande tabell 2 ). För dessa uppgifter tog byggandet av trädet 2,5 min per fil (kompletterande tabell 3). Dessa experiment kunde sökas för en enda utskrift fråga i, i genomsnitt, 20 min (Fig. 1), med användning av mindre än 239 MB RAM med en enda tråd (Online Methods). Vi uppskattar den jämförbara söktiden med hjälp av SRA-BLAST 2 eller kartläggning av STAR 19 att vara 2,2 d respektive 921 d, respektive (Online Methods), men SRA-BLAST och STAR returanpassningar medan SBT inte gör det. Men även en mycket snabb anpassning såsom STAR kan inte identifiera frågeinnehållande experiment så snabbt som SBT. Vi testade också satser av 100 frågor och fann SBT var en uppskattad 4 056 gånger snabbare än en batched version av kartläggningen 3 0 1 metod (kompletterande bild. 2).................................................................. Dessa frågor utfördes över varierande känslighetströskel (minimifraktionen av frågek-mers som måste finnas för att returnera en "hit") samt utskrifter per miljon (TPM) tröskel som används för att välja frågeuppsättningen ( Kompletterande figurer. 3 och 4). För ungefär hälften av frågorna gav de övre nivåerna i SBT-hierarkin betydande fördelar, särskilt när det gällde frågor som inte uttrycktes i något experiment (Supplementary Fig. 5 och kompletterande tabell 4. SBT kan påskynda användningen av algoritmer, såsom STAR eller SRA-BLAST, genom att först utesluta experiment där frågesekvenserna inte är närvarande. Detta gör det möjligt för efterföljande behandlingstid att skala med storleken på antalet träffar snarare än storleken på databasen. Vi använde först SBT för att filtrera hela datasetet bestående av 2.652 mänskliga blod-, bröst- och hjärn-RNA-seq-experiment. Vi jämförde sedan prestandan hos STAR eller SRA-BLAST på den filtrerade datasetet med tiden att bearbeta den ofiltrerade datasetet med dessa algoritmer. Genom att använda SBT för att först filtrera data minskades den totala frågetiden för STAR eller SRA-BLAST med en faktor på 3 (kompletterande bild. 6).................................................................. För att analysera noggrannheten hos SBT-filtret, jämförde vi de experiment som returnerades av SBT med de där frågesekvensen uppskattades uttryckas med hjälp av Sailfish 20. Eftersom det är opraktiskt att använda befintliga verktyg för att uppskatta uttryck över hela uppsättningen experiment, vi frågade hela trädet, men uppskattad noggrannhet på en uppsättning av 100 slumpmässiga filer som vi körde Sailfish (Fig. 2).................................................................. Tre samlingar av representativa frågor konstruerades med hjälp av Sailfish, betecknad av Hög, Medium och Låg, som inkluderade utskrifter av längd > 1000 nt som sannolikt skulle uttryckas på en högre, medium eller låg nivå i minst ett experiment som ingår i uppsättningen av 100 experiment på vilken Sailfish kördes. Den höga uppsättningen valdes till 100 slumpmässiga transkript med ett uppskattat överflöd av > 1000 TPM i minst ett experiment. De Medium och Low frågeuppsättningar valdes på liknande sätt slumpmässigt bland utskrifter med >500 och >100 TPM, respektive. Dessa Sailfish uppskattningar togs som den grundläggande sanningen i uttryck för frågeutskrifterna. Både falska positiva och falska negativa kan uppstå från en missmatchning mellan SBT definition av närvarande (täckning av k-mers över en tillräcklig bråkdel av frågan) och Sailfish definition av uttryckt (beräknas genom läsning kartläggning och en förväntan-maximization inference). Dessa två definitioner är relaterade, men inte helt i linje, vilket resulterar i en viss oenighet som kvantifieras av de falskt positiva satserna (FPR) och falskt negativa satserna i figur 2. De observerade falska negativa är främst drivs av några avvikande frågor för vilka SBT rapporterar inga resultat men deras uttryck är över TPM-tröskeln som uppskattas av Sailfish. Detta stöds av det faktum att den genomsnittliga true-positiva takten på till = 0.7 för frågor som returnerar minst en fil var 96-100%, och medianen true-positiva frekvensen i alla frågor var 100% för alla utom den strängaste till (Fig. 2).................................................................. Vi använde SBT för att söka alla blod, hjärna och bröst SRA sekvensering körs för att uttrycka alla 214.293 kända mänskliga transkript och använde dessa resultat för att identifiera vävnadsspecifika transkript ( Kompletterande tabell 5 och Kompletterande bild. 7)................................................................. Denna sökning tog 3.3 d med hjälp av en enda tråd (kompletterande bild. 8 ) och 8.............................................................................................................. Det finns för närvarande ingen sökning eller anpassning verktyg som kan lösa denna skala av sekvenssökning problem i en rimlig tidsram, men vi uppskattar en likvärdig sökning med Sailfish skulle ta 92 d. Hastigheten och beräkningseffektivitet SBTs kommer att göra det möjligt både enskilda laboratorier och sekvensering center för att stödja storskaliga sekvens sökningar, inte bara för RNA-seq data, men för genomiska och metagenomiska samlingar också. Forskare kan söka efter förhållanden bland tusentals som sannolikt kommer att uttrycka en viss ny isoform eller använda SBT för att identifiera metagenomiska prover som sannolikt kommer att innehålla en viss bakteriestam. Snabb sökning av denna typ kommer att vara avgörande för att på ett bra sätt utnyttja den ständigt växande insamlingen av tillgängliga sekvensdata. För närvarande är det svårt att få tillgång till alla relevanta uppgifter om en viss forskningsfråga från tillgängliga sekvenseringsförsök. Enskilda sjukhus, sekvenseringscenter, forskningskonsortier och forskargrupper samlar in data i snabb takt och står inför samma svårighet att inte snabbt kunna testa beräkningshypoteser eller att hitta de relevanta förutsättningarna för ytterligare studier. SBT möjliggör effektiv gruvdrift av dessa data och kan användas för att avslöja biologiska insikter som endast kan avslöjas genom analys av flera datamängder från olika källor. Dessutom kräver SBT inte förkunskaper om sekvenser av intresse, vilket gör det möjligt att identifiera, till exempel, uttryck av okända isoformer eller långa icke-kodande RNA. Denna algoritm gör det praktiskt att söka stora sekvensering arkiv och kan öppna upp nya användningsområden för dessa rika samlingar av data. ( 1 5 - t h r e d) Tid (min) Figur 1 Beräknade körtider för sökverktyg för en utskrift. SBT per query tid spelades in med maximalt ett enda filter i aktivt minne och en tråd. De andra barerna visar den beräknade tiden för att uppnå samma frågeresultat med hjälp av SRA-BLAST och STAR.
I den publicerade inställningen REF, varje Bloom filter är konfigurerad att vara 236MB i storlek, okomprimerad.
18,391,638
Fast search of thousands of short-read sequencing experiments
{'venue': 'Nature Biotechnology', 'journal': 'Nature Biotechnology', 'mag_field_of_study': ['Biology', 'Medicine']}
82,386
Ontologier spelar en avgörande roll i utvecklingen av den semantiska webben som ett sätt att definiera delade termer i webbresurser. De är formulerade i web ontologi språk, som är baserade på expressiva beskrivning logiker. Betydande forskningsinsatser i den semantiska webbgemenskapen är nyligen inriktade på att representera och resonera med osäkerhet och vaghet i ontologier för den semantiska webben. I detta dokument ger vi en översikt över metoder i detta sammanhang för att hantera probabilistisk osäkerhet, possibilistisk osäkerhet och vaghet i uttrycklig beskrivningslogik för den semantiska webben.
REF:s arbete visar att ontologier spelar en avgörande roll i utvecklingen av den semantiska webben.
2,747,357
Managing Uncertainty and Vagueness in Description Logics for the Semantic Web
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,387
Klassificering av nätverkstrafik med hjälp av portbaserade eller nyttolastbaserade analyser blir allt svårare med många peer-to-peer-tillämpningar (P2P) som använder dynamiska portnummer, maskerad teknik och kryptering för att undvika upptäckt. Ett alternativt tillvägagångssätt är att klassificera trafiken genom att utnyttja de särskilda egenskaperna hos tillämpningar när de kommunicerar på ett nät. Vi följer detta senare tillvägagångssätt och visar hur klusteranalys kan användas för att effektivt identifiera trafikgrupper som är likartade med hjälp av enbart transportlagerstatistik. Vårt arbete omfattar två oövervakade klusteralgoritmer, nämligen K-Means och DBSCAN, som tidigare inte har använts för klassificering av nätverkstrafik. Vi utvärderar dessa två algoritmer och jämför dem med den tidigare använda AutoClass-algoritmen med hjälp av empiriska Internetspår. De experimentella resultaten visar att både K-Means och DBSCAN fungerar mycket bra och mycket snabbare än AutoClass. Våra resultat indikerar att även om DBSCAN har lägre noggrannhet jämfört med K-Means och AutoClass producerar DBSCAN bättre kluster.
Erman m.fl. REF jämförde tre oövervakade klusteralgoritmer: K-Means, DBSCAN och AutoClass.
2,120,232
Traffic classification using clustering algorithms
{'venue': "MineNet '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,388
Abstract-Network intrångsdetekteringssystem (NIDS) spelar en avgörande roll för att försvara datornätverk. Det finns dock farhågor när det gäller genomförbarheten och hållbarheten hos de nuvarande strategierna när de ställs inför kraven från moderna nätverk. Mer specifikt avser dessa frågor de ökande nivåerna av nödvändig mänsklig interaktion och de minskande nivåerna av detektionsnoggrannhet. I detta dokument presenteras en ny djupinlärningsteknik för att upptäcka intrång, som tar upp dessa problem. Vi beskriver vår föreslagna icke-symmetrisk djup autoencoder (NDAE) för oövervakad funktionsinlärning. Dessutom föreslår vi också vår nya modell för djupinlärning som konstruerats med hjälp av staplade NDAE. Vår föreslagna klassificering har implementerats i grafikbearbetningsenhet (GPU)-aktiverad TensorFlow och utvärderats med hjälp av riktmärket KDD Cup '99 och NSL-KDD dataset. Hittills har vi fått lovande resultat från vår modell, vilket visar på förbättringar jämfört med befintliga metoder och den starka potentialen för användning i moderna NIDS.
Den forskning som genomfördes i REF presenterade ett system för djupinlärning baserad på intrångsdetektering som använde sig av icke-symmetrisk djup auto-encoder (NDAE) för funktionsinlärning och en klassificeringsmetod med hjälp av staplade NDAE.
3,306,364
A Deep Learning Approach to Network Intrusion Detection
{'venue': 'IEEE Transactions on Emerging Topics in Computational Intelligence', 'journal': 'IEEE Transactions on Emerging Topics in Computational Intelligence', 'mag_field_of_study': ['Computer Science']}
82,389
Vi presenterar ett nytt platsigenkänningssystem som anpassar den senaste tekniken för objektförslag för att identifiera potentiella landmärken inom en bild. Det föreslagna systemet använder konvolutionella nätverksfunktioner som robusta landmärkesdeskriptorer för att känna igen platser trots allvarliga syn- och tillståndsförändringar, utan att kräva någon miljöspecifik utbildning. De färgade rutorna i bilderna ovan visar ConvNet landmärken som korrekt har matchats mellan två betydligt olika synvinklar av en scen, vilket möjliggör platsigenkänning under dessa utmanande förhållanden. Abstract-Place-erkännandet har länge varit ett ofullständigt löst problem eftersom alla tillvägagångssätt innebär betydande kompromisser. Nuvarande metoder tar upp många men aldrig alla av de kritiska utmaningarna med platsigenkänning -viewpoint-invariance, tillståndsinvarians och minimering av utbildningskrav. Här presenterar vi en strategi som anpassar den senaste tekniken för förslag till objekt för att identifiera potentiella landmärken inom en bild för platsigenkänning. Vi använder den häpnadsväckande kraften i konvolutionella neurala nätverksfunktioner för att identifiera matchande banbrytande förslag mellan bilder för att utföra platsigenkänning över extrema utseende och perspektiv variationer. Vårt system kräver ingen form av utbildning, alla komponenter är generiska nog att användas off-the-shälf. Vi presenterar en rad utmanande experiment i varierande perspektiv och miljöförhållanden. Vi visar överlägsen prestanda jämfört med nuvarande hjärtteknik. Genom att bygga vidare på befintliga och allmänt använda ramar för erkännande ger detta tillvägagångssätt dessutom ett mycket kompatibelt system för platsigenkänning med möjlighet till enkel integrering av andra tekniker såsom objektdetektering och semantisk scentolkning. Visuell platsigenkänningsforskning har dominerats av sofistikerade lokala funktionsbaserade tekniker som SIFT och SURF keypoints, handgjorda globala bilddeskriptorer som GIST och bag-of-words tillvägagångssätt. Men eftersom robotar arbetar under längre tidsperioder i verkliga miljöer har problemet med förändrade miljöförhållanden kommit i förgrunden, där konventionella igenkänningsmetoder misslyckas. För att ta itu med detta problem, ett antal tekniker har antagits -matchande bildsekvenser [27, 29, 33, 28], skapa skugga-invarianta bilder [6, 43, 25, 24], lära sig framträdande bild regioner [26] eller lärande timliga modeller som tillåter förutsägelse av förekommande förändringar [31]. Den senaste forskningen har också visat hur generiska djupinlärning-baserade funktioner som utbildats för objektigenkänning framgångsrikt kan tillämpas inom området platsigenkänning [41, 3]. Alla nuvarande strategier har dock infört minst en betydande prestanda eller användbarhet kompromiss, oavsett om det är en brist på invarians till kamera synpunkt förändringar [27, 28], omfattande miljöspecifika utbildningskrav [26], eller bristen på utseende ändrar robusthet [7]. För att visuell platsigenkänning ska vara verkligt robust måste den samtidigt ta itu med tre kritiska utmaningar: 1) tillståndsinvariant, 2) perspektivinvariant och 3) allmängiltighet (inga miljöspecifika utbildningskrav). I detta dokument presenterar vi ett enhetligt tillvägagångssätt som tar itu med alla dessa tre utmaningar. Vi använder en toppmodern metod för objektförslag för att upptäcka potentiella landmärken i bilderna. Ett konvolutionsnätverk (ConvNet) används sedan för att extrahera allmänna funktioner för vart och ett av dessa banbrytande förslag. Vi visar att ConvNet funktioner är robusta för både utseende och perspektiv förändring; de första två kritiska utmaningar. Vi betonar också att banbrytande förslag kräver ingen utbildning och ConvNet är förskolad på ImageNet, en generisk bilddatabas; den tredje kritiska utmaningen. Genom att utföra experiment på ett antal dataset visar vi att vårt system är utbildningsfritt genom att ingen uppgiftsspecifik eller ens platsspecifik utbildning krävs. Vi betonar också att endast enstaka bilder krävs för matchning och att systemet inte kräver bildsekvenser. Vi demonstrerar det allmänna i vårt system på ett antal befintliga dataset och introducerar nya utmanande platsigenkänningsdataset, samtidigt som vi jämför med de senaste metoderna. De nya bidragen i detta dokument är: 1) Ett platsigenkänningssystem som är robust för syn- och utseendevariation, som inte kräver någon miljöspecifik utbildning, och 2) Införandet av nya utmanande datauppsättningar som uppvisar extrem syn- och utseendevariation. Tidningen går vidare enligt följande. Avsnitt II ger en kort översikt över relaterat arbete. Metoden beskrivs i detalj i avsnitt III följt av en översikt över de fyra försöksgrupperna. Vi presenterar resultaten i avsnitt V innan vi avslutar med en diskussion och beskriver det framtida arbetet. Fokus för forskning på plats erkännande har nyligen gått från att känna igen scener utan betydande utseende förändringar till mer utmanande, men också mer realistiska föränderliga miljöer. Place Recognition: Metoder som tar itu med platsen igenkänning problem spänna från matchande sekvenser av bilder [27, 17, 40, 33, 29], omvandla bilder för att bli invariant mot vanliga scen förändringar såsom skuggor [6, 43, 25, 24, 21], lära sig hur miljöer förändras över tid och förutsäga dessa förändringar i bildutrymme [30, 21, 31], partikelfilterbaserade metoder som bygger upp plats igenkänning hypoteser över tid [23, 39, 22], eller bygga en karta över erfarenheter som täcker olika utseenden av en plats över tid [5]. Att lära sig hur miljöns utseende förändras kräver i allmänhet träningsdata med kända ramkorrespondenser. [17] Bygger en databas över observerade funktioner under en dag och natt. [30, 31] presenterar ett tillvägagångssätt som lär sig systematiska scenförändringar för att förbättra prestandan på ett säsongsbetonat förändringsdataset. [26] lär sig framträdande regioner i bilder av samma plats med olika miljöförhållanden. Utöver begränsningen av krav på utbildningsdata är generaliteten för dessa metoder för närvarande också okänd; dessa metoder har endast visat sig fungera i samma miljö och på samma eller mycket liknande typer av miljöförändringar som de som förekommer i utbildningsdataseten. Även om punktfunktionsbaserade metoder visade sig vara robusta mot synförändringar [7, 8, 38], till författarnas kunskap, har betydande förändringar i både syn- och miljöförhållanden inte tagits upp i litteraturen. Vi visar att robusthet mot variation i båda fallen kan hanteras utan platsspecifik utbildning. Funktionsbaserade metoder: SIFT [20], SURF [1] och ett antal efterföljande funktionsdetektorer har visat sig uppvisa en betydande grad av invarians men endast en begränsad grad av tillståndsinvarians (belysning, atmosfäriska förhållanden, skuggor, säsonger). Perceptuell förändring lika drastisk som den som illustreras i bild. 1 har visat sig vara utmanande för konventionella funktionsdetektorer [27, 44] och medan FAB-MAP [7] är robust med avseende på synförändringar, är det känt att misslyckas i förhållanden med allvarliga förändringar utseende [29, 31, 13]. Dessutom hävdade [11, 34] att FAB-MAP inte generaliserar väl till nya miljöer utan att lära sig ett nytt platsspecifikt ordförråd. [26] visar att patchar och regionbaserade metoder inom en bild kan uppvisa samma robusthet som helbildstekniker samtidigt som viss robusthet bibehålls för att skala variation, och därmed uppnå några av fördelarna med både punkt- och helbildsfunktioner. Det krävdes dock omfattande platsspecifik utbildning. I denna forskning utökar vi fördelarna med regionbaserade metoder för att ta itu med både syn- och miljöförändringar utan krav på platsspecifik utbildning. En gemensamhet mellan alla dessa metoder är att de förlitar sig på en fast uppsättning handgjorda traditionella funktioner eller arbetar på rå pixelnivå. En ny trend när det gäller datorseende, och särskilt när det gäller igenkänning och upptäckt av föremål, är att utnyttja inlärda funktioner med hjälp av djupa konvolutionella nätverk (ConvNets). Det mest framträdande exemplet på denna trend är den årliga ImageNet Large Scale Visual Recognition Challenge där under de senaste två åren många av deltagarna har använt ConvNet funktioner [36]. Flera forskargrupper har visat att ConvNets överträffar klassiska metoder för objektklassificering eller detektering som bygger på handgjorda funktioner [19, 37, 10, 12, 35]. Tillgången till förutbildade nätverksmodeller gör det enkelt att experimentera med sådana metoder för olika uppgifter: programvarupaketen Overfeat [37] och Decaf [10] eller dess efterföljare Caffe [16] tillhandahåller liknande nätverksarkitekturer som var förtränade på ImageNet ILSVRC-datauppsättningen [36]. Nyligen genomförda studier har visat att toppmoderna prestanda på plats kan uppnås med nätverk utbildade med hjälp av generiska data: [41] visade att ConvNet funktioner som representerar hela bilden överträffar nuvarande metoder för att ändra miljöförhållanden. Helbildsdrag lider emellertid av känslighet för en förändring av synsättet. Vi visar att genom att kombinera kraften i ConvNets och regionbaserade funktioner snarare än att använda helbildsrepresentationer, kan en stor grad av robusthet mot synförändringar uppnås. Följaktligen bygger vi i denna forskning på de bäst presterande aspekterna av state of the art; erkännande prestanda ConvNet tillvägagångssätt [41], och robustheten i regionbaserade metoder för att se förändring [26]. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. FÖRSLAG TILL SYSTEM I detta avsnitt beskriver vi de fem nyckelkomponenterna i vårt föreslagna platsigenkänningssystem: 1) banbrytande förslagsextraktion från den aktuella bilden 2) beräkning av en ConvNet-funktion för varje förslag 3) projektion av funktionerna i ett lägre dimensionsutrymme 4) beräkning av en matchningspoäng för varje tidigare sedd bild 5) beräkning av den bästa matchningen Bild. 2 illustrerar vårt system. Tillvägagångssättet har flera egenskaper som skiljer det från tidigare arbete: • Systemet kräver ingen uppgiftsspecifik eller platsspecifik utbildning. Den använder en off-the-shälf förtränad con-
Till exempel Sünderhauf et al. REF använde ConvNet-funktioner för att matcha delregioner som motsvarar landmärken, förbättra prestandan hos de holistiska bilddeskriptorerna, men författarna påpekade att det inte var i närheten av tillräckligt snabbt för att användas i realtid.
5,437,340
Place Recognition with ConvNet Landmarks: Viewpoint-Robust, Condition-Robust, Training-Free
{'venue': 'Robotics: Science and Systems', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']}
82,390
I detta dokument föreslår vi ett nytt tillvägagångssätt för att upptäcka informativt innehåll från en uppsättning tabelldokument (eller webbsidor) på en webbplats. Vårt system, InfoDiscoverer, första partitionerar en sida i flera innehållsblock enligt HTML-taggen < T~L E > på en webbsida. Baserat på förekomsten av funktioner (termer) i uppsättningen sidor, den beräknar entropivärdet för varje funktion. Enligt entropivärdet för varje funktion i ett innehållsblock definieras blockets entropivärde. Genom att analysera informationsmåttet föreslår vi en metod för att dynamiskt välja den entropitröskel som partitionerar block till antingen informativa eller överflödiga. Informationsblock är särskiljande delar av sidan, medan redundanta innehållsblock är vanliga delar. Baserat på svaret som genereras från 13 manuellt taggade nyheter Webbplatser med totalt 26,518 webbsidor, experiment visar att både återkalla och precisionsfrekvenser är större än 0,956. Det vill säga, med hjälp av metoden, informativa block (nyheter artiklar) av dessa webbplatser kan automatiskt separeras från semantiskt överflödigt innehåll såsom annonser, banners, navigeringspaneler, nyhetskategorier, etc. Genom att använda InfoDiscoverer som förbehandlare av applikationer för insamling och utvinning av information kommer precisionen för hämtning och utvinning att ökas, och indexeringsstorleken och hämtnings komplexiteten kommer också att minskas.
Lin REF försöker också partitionera en webbsida i block och identifiera innehåll.
10,504,461
Discovering informative content blocks from Web documents
{'venue': "KDD '02", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,391
Klicka förutsägelse är ett av de grundläggande problemen i sponsrad sökning. De flesta befintliga studier drog nytta av maskininlärning metoder för att förutsäga annonsklick för varje händelse av annonsvy oberoende. Men, som observerats i den verkliga världen sponsrade söksystemet, användarens beteende på annonser ger hög beroende av hur användaren betedde sig tillsammans med den senaste tiden, särskilt när det gäller vilka frågor hon lämnade in, vilka annonser hon klickade eller ignorerade, och hur länge hon spenderade på landningssidorna för klickade annonser, etc. Inspirerad av dessa observationer introducerar vi ett nytt ramverk baserat på Recurrent Neural Networks (RNN). Jämfört med traditionella metoder modellerar detta ramverk direkt beroendet av användarens sekventiella beteende i klickförutsägelseprocessen genom den återkommande strukturen i RNN. Storskaliga utvärderingar av klick-genom loggar från en kommersiell sökmotor visar att vår strategi kan avsevärt förbättra klick förutsägelsen noggrannhet, jämfört med sekvensoberoende strategier.
Zhang m.fl. REF föreslog ett ramverk som direkt modellerade beroendet av användarens sekventiella beteende i klickförutsägelseprocessen genom det återkommande nätverket.
9,655,225
Sequential Click Prediction for Sponsored Search with Recurrent Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,392
Vetenskaplig forskning är mycket dynamisk. Nya vetenskapsområden utvecklas ständigt; andra vinner eller förlorar betydelse, slås samman eller splittras. På grund av den stadiga ökningen av antalet vetenskapliga publikationer är det svårt att hålla en överblick över strukturen och den dynamiska utvecklingen inom sitt eget vetenskapsområde, än mindre alla vetenskapliga områden. Kunskap om "heta" ämnen, framväxande forskningsgränser eller förändring av fokus inom vissa områden är dock en viktig del av beslut om resursfördelning i forskningslabb, statliga institutioner och företag. Detta dokument visar användningen av Kleinbergs sprängämnesalgoritm, co-word händelseanalys och graflayoutteknik för att generera kartor som stödjer identifiering av stora forskningsämnen och trender. Tillvägagångssättet användes för att analysera och kartlägga den kompletta uppsättning av artiklar som publicerats i Proceedings of the National Academy of Sciences (PNAS) under åren 1982-2001. Sex domänexperter undersökte och kommenterade de resulterande kartorna i ett försök att rekonstruera utvecklingen av större forskningsområden som omfattas av PNAS. Kartor som skildrar strukturen och utvecklingen av vetenskapliga fält kallas också Knowledge Domain Visualiseringar (KDVs) [2]. De är en speciell typ av informationsvisualisering [3] som utnyttjar kraftfull mänsklig vision och rumslig kognition för att hjälpa människor att mentalt organisera och elektroniskt få tillgång till och hantera stora, komplexa informationsutrymmen. Till skillnad från vetenskapliga visualiseringar, KDVs skapas från data som inte har någon rumslig referens, såsom uppsättningar av publikationer, patent, eller bidrag. KDVs använder sofistikerade dataanalys- och visualiseringstekniker för att objektivt identifiera stora forskningsområden, experter, institutioner, bidrag, publikationer, tidskrifter, etc., i ett intresseområde. De kan användas för att få en överblick över ett kunskapsområde, dess homogenitet, import-exportfaktorer och relativa hastighet, för att spåra uppkomsten och utvecklingen av ämnen, eller för att hjälpa till att identifiera de mest produktiva såväl som nya forskningsområden. Fördelarna med KDVs inkluderar att minska den visuella söktiden, avslöja dolda relationer, visa datamängder från flera perspektiv samtidigt, underlätta hypotesformulering, fungera som effektiva kommunikationsmedel, och uppmana användarna att tänka på nya sätt om dokumentdata. Idag är KDVs normalt genereras semi-automatiskt från ganska små, statiska datamängder, och för en specifik kunskapsdomän och informationsbehov. Detta dokument presenterar ett nytt sätt att skapa samordskartor över viktiga ämnen som bygger på mycket frekventa ord och ord med en plötslig ökning av deras användning, ett fenomen som kallas "burst" [4]. En stor uppsättning data som omfattar den fullständiga uppsättningen 47.073 artiklar som publicerats i National Academy of Sciences (PNAS) verksamhet under åren 1982-2001 används för demonstration. Vi beskriver identifieringen av mycket frekventa och spruckna ord, analysen av de viktigaste korrelationerna bland dessa ord, samt generering och tolkning av en tvådimensionell layout som visar stora forskningsämnen och deras dynamik.
Mane och Böner REF använde denna metod för att spåra den tidsmässiga utvecklingen av viktiga ämnen i vetenskaplig publicering.
5,154,005
Mapping Topics and Topic Bursts in PNAS
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,393
Vi presenterar DL8, en exakt algoritm för att hitta ett beslut träd som optimerar en ranking funktion under storlek, djup, noggrannhet och blad begränsningar. Eftersom upptäckten av optimala träd har hög teoretisk komplexitet, hittills har få ansträngningar gjorts för att beräkna sådana träd för verkliga dataset. En exakt algoritm är av både vetenskapligt och praktiskt intresse. Ur vetenskaplig synvinkel kan det användas som en guldstandard för att utvärdera utförandet av heuristiska begränsningar-baserade beslut trädinlärare och för att få ny insikt i traditionella beslut trädinlärare. Ur tillämpningssynpunkt kan den användas för att upptäcka träd som inte kan hittas av heuristiska beslutsträdslärare. Nyckeltanken bakom vår algoritm är att det finns ett samband mellan begränsningar på beslutsträd och begränsningar på objektet. Vi visar att optimala beslut träd kan extraheras från gitter av artiklar i linjär tid. Vi ger flera strategier för att effektivt bygga dessa gitter. Experiment visar att DL8 under samma begränsningar uppnår bättre resultat än C4.5, vilket bekräftar att en uttömmande sökning inte alltid innebär att man överanstränger sig. Resultaten visar också att DL8 är ett användbart och intressant verktyg för att lära sig beslutsträd under begränsningar.
DL8-algoritmen REF optimerar en rankningsfunktion för att hitta ett beslutsträd under begränsningar av storlek, djup, noggrannhet och löv.
14,764,919
Mining optimal decision trees from itemset lattices
{'venue': "KDD '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,394
Vi introducerar en ny metod för att använda reflektans för att identifiera material. Reflektans erbjuder en unik signatur av materialet men är utmanande att mäta och använda för att känna igen material på grund av dess höga dimensionalitet. I detta arbete, en-shot reflektans av en materialyta som vi kallar en reflektans skiva fångar med hjälp av en unik optisk kamera. Pixelkoordinaterna för dessa reflektansskivor motsvarar observationsvinklarna på ytan. Reflektansen har klassspecifika stuktur- och vinkelgradienter som beräknas i detta reflexutrymme avslöjar materialklassen. Dessa reflektansskivor kodar discriminativ information för effektiv och exakt materialigenkänning. Vi introducerar ett ramverk som kallas reflektanshashing som modellerar reflektansskivorna med ordboksinlärning och binär hashing. Vi visar effektiviteten av reflektans hashing för materiellt erkännande med ett antal realworld material.
I tidigare arbete REF har reflektansskivor använts för materialigenkänning.
15,193,683
Reflectance hashing for material recognition
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
82,395
Abstract-The two-user multiple-input multiple-output (MIMO) interferent kanal (IC) med godtyckligt antal antenner vid varje terminal beaktas och graden av frihet (DoF) region kännetecknas i närvaro av ljudlös kanalutgång återkoppling från varje mottagare till sin respektive sändare och tillgång till fördröjd kanaltillstånd information vid sändare (CSIT). Det visas att med feedback från produktionen och försenad CSIT kan strikt förstora DoF-regionen i MIMO IC jämfört med det fall där endast fördröjd CSIT är närvarande. De föreslagna kodsystem som uppnår motsvarande DoF-region med återkoppling och fördröjd CSIT utnyttjar både resurser, dvs. återkoppling och fördröjd CSIT på ett icke-trivialt sätt. Det visas också att DoF-regionen med lokal feedback och försenad CSIT är lika med DoF-regionen med global feedback och fördröjd CSIT, dvs. lokal feedback och försenad CSIT är likvärdig med global feedback och fördröjd CSIT ur frihetsregionens perspektiv. Motsatsen är bevisad för en starkare miljö där kanalerna till de två mottagarna inte behöver vara statistiskt likvärdiga. Index Terms-Interference Channel, MIMO, Utgång Feedback, Fördröjd CSIT.
När det finns feedback och fördröjd CSIT kapacitet regionen är större än det för fallet med ingen feedback och omedelbar CSIT i motsats till DoF resultat från REF.
3,892,965
Degrees of Freedom Region of the MIMO Interference Channel with Output Feedback and Delayed CSIT
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,396
Abstract-De flesta undersökningar i ad hoc-nätverk fokuserar på routing och inte mycket arbete har gjorts på dataåtkomst. En vanlig teknik som används för att förbättra dataåtkomsten är caching. Kooperativ caching, som gör det möjligt att dela och samordna cachad data mellan flera noder, kan ytterligare utforska potentialen i caching tekniker. På grund av ad hoc-nätens rörlighet och resursbegränsningar kan samarbetscacheteknik avsedd för trådbundna nät inte vara tillämplig på ad hoc-nät. I detta dokument utformar och utvärderar vi samarbetsmetoder för cachelagring för att effektivt stödja dataåtkomst i ad hoc-nätverk. Vi föreslår först två system: CacheData, som cache data, och CachePath, som cache data vägen. Efter att ha analyserat resultatet av dessa två system, föreslår vi en hybrid strategi (HybridCache), som kan ytterligare förbättra prestanda genom att dra nytta av CacheData och CachePath samtidigt undvika sina svagheter. Cache ersättningspolicy studeras också för att ytterligare förbättra prestandan. Simuleringsresultat visar att de föreslagna systemen avsevärt kan minska frågefördröjningen och meddelandets komplexitet jämfört med andra cachesystem.
Yin och Cao studerar integreringen av cachemekanismen i ett ad hoc-nätverk REF.
2,807,480
Supporting cooperative caching in ad hoc networks
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
82,397
Vi anser att en energiskörd (EH) sändare kommunicerar över en tidskorrelerad trådlös kanal. Sändaren kan känna av det aktuella kanaltillståndet, om än till priset av både energi och överföringstid. EH sändare syftar till att maximera sin långsiktiga genomströmning genom att välja en av följande åtgärder: i) skjuta upp sin överföring för att spara energi för framtida användning, ii) överföra tillförlitligt vid en låg hastighet, iii) överföra med hög hastighet, och iv) känna kanalen att avslöja kanalen tillstånd information till en kostnad för energi och överföringstid, och sedan besluta att skjuta upp eller att överföra. Problemet formuleras som en delvis observerbar Markov beslutsprocess med en tro på kanalen staten. Den optimala policyn visas för att uppvisa ett tröskelbeteende på trostillståndet, med batteriberoende tröskelvärden. De optimala tröskelvärdena och prestandan karakteriseras numeriskt via värde iterationsalgoritmen. Våra resultat visar att, trots tillhörande tid och energikostnader, att känna av kanalen intelligent för att spåra kanaltillståndet förbättrar den uppnåeliga långsiktiga genomströmningen avsevärt jämfört med prestandan hos de protokoll som saknar denna förmåga samt den som alltid känner kanalen. Gilbert-Elliot kanal, kanalanalys, Markov beslutsprocess.
I REF anpassar en EH-sändare intelligent sin kanalanalysstrategi med avseende på en trosparameter som den har om kanalens tillstånd för att maximera sin långsiktiga diskonterade genomströmning över en tidskorrelerad kanal.
3,965,136
Channel Sensing and Communication over a Time-Correlated Channel with an Energy Harvesting Transmitter
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,398
En effektiv strategi för energibesparing i trådlösa sensornätverk är att schemalägga vilointervaller för främmande noder medan de återstående noderna förblir aktiva för att tillhandahålla kontinuerlig service. För att sensornätverket ska fungera framgångsrikt måste de aktiva noderna upprätthålla både sensortäckning och nätverksanslutning. Dessutom måste nätverket kunna konfigurera sig till en möjlig nivå av täckning och konnektivitet för att kunna stödja olika tillämpningar och miljöer med olika krav. Denna artikel presenterar utformningen och analysen av nya protokoll som dynamiskt kan konfigurera ett nätverk för att uppnå garanterad grad av täckning och konnektivitet. Detta arbete skiljer sig från befintliga konnektivitets- eller täckningsunderhållsprotokoll på flera viktiga sätt. (1) Vi presenterar en täckning Configuration Protocol (CCP) som kan ge olika grader av täckning begärs av applikationer. Denna flexibilitet gör det möjligt för nätverket att självkonfigurera för ett brett spektrum av tillämpningar och (eventuellt dynamiska) miljöer. (2) Vi tillhandahåller en geometrisk analys av förhållandet mellan täckning och konnektivitet. Denna analys ger viktiga insikter för att behandla täckning och konnektivitet inom en enhetlig ram; i skarp kontrast till flera befintliga metoder som hanterar de två problemen isolerat. (3) Vi integrerar CCP med SPAN för att ge både täckning och konnektivitetsgarantier. (4) Vi föreslår en probabilistisk täckningsmodell och utvidgar den centrala motparten till att ge probabilistiska täckningsgarantier. Vi demonstrerar våra protokolls förmåga att ge garanterad täckning och konnektivitetskonfigurationer genom både geometrisk analys och omfattande simuleringar.
Xing m.fl. REF utformade ett konfigureringsprotokoll för integrerad täckning för att ge både vissa grader av täckning och konnektivitetsgarantier.
653,436
Integrated coverage and connectivity configuration for energy conservation in sensor networks
{'venue': 'TOSN', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,399
Abstract-Den begränsade batterikapaciteten hos sensornoder har blivit det största hindret för trådlösa sensornätverk (WSN) applikationer. Två senaste genombrott inom områdena trådlös energiöverföring och uppladdningsbara litiumbatterier utlovar användning av mobila fordon, med högvolymbatterier, som mobila laddare som överför energi till sensornoder trådlöst. I detta dokument föreställer vi oss för första gången ett nytt laddningsparadigm: samverkande mobilladdningar, där mobilladdare tillåts ladda varandra. Vi undersöker problemet med att schemalägga flera mobila laddare, som tillsammans laddar sensorer, för att maximera förhållandet mellan mängden nyttolast energi till overhead energi, så att varje sensor inte kommer att få slut på energi. Vi betraktar först det enhetliga fallet där alla sensorer förbrukar energi i samma takt, och föreslår en schemaläggning algoritm, PushWay, som har visat sig vara optimal i detta fall och kan täcka en endimensionell WSN av oändlig längd. Sedan, i det icke-uniforma fallet, som förmodas vara NP-hård, presenterar vi först två observationer från rum och tid aspekter för att ta bort några omöjliga schemaläggning val, och vi föreslår vår heuristiska algoritm, ClusterCharging (β), som samlar sensorer i grupper och delar upp en schemaläggning cykel i laddningsrundor. Dess approximationsgrad presenteras också. Omfattande utvärderingar bekräftar effektiviteten i våra algoritmer.
Det finns ett arbete i toppmoderna (i REF ) där författarna introducerar ett nytt laddningsparadigm, det av samverkande mobilladdningar, där mobilladdare tillåts att debitera varandra.
5,738,192
Collaborative mobile charging for sensor networks
{'venue': '2012 IEEE 9th International Conference on Mobile Ad-Hoc and Sensor Systems (MASS 2012)', 'journal': '2012 IEEE 9th International Conference on Mobile Ad-Hoc and Sensor Systems (MASS 2012)', 'mag_field_of_study': ['Computer Science']}
82,400
Abstract-Människor och djur är kapabla att lära sig ett nytt beteende genom att observera andra utföra skickligheten bara en gång. Vi överväger problemet med att låta en robot göra sammainlärning från en rå video pixlar av en människa, även när det finns betydande domänförskjutning i perspektivet, miljön och förkroppsligande mellan roboten och den observerade människan. Tidigare tillvägagångssätt till detta problem har hand specificerat hur mänskliga och robot åtgärder motsvarar och ofta förlitat sig på explicita mänskliga pose detektionssystem. I detta arbete presenterar vi en strategi för oneshot-inlärning från en video av en människa genom att använda mänskliga och robotdemonstrationsdata från en mängd tidigare uppgifter för att bygga upp förkunskaper genom meta-learning. Då, kombinera denna förkunskaper och bara en enda videodemonstration från en människa, roboten kan utföra den uppgift som människan demonstrerade. Vi visar experiment på både en PR2-arm och en Sawyer-arm, som visar att roboten efter meta-lärande kan lära sig att placera, pusha och pick-and-place nya objekt med hjälp av bara en video av en människa som utför manipuleringen.
På senare tid presenterade Ref ett nytt tillvägagångssätt för endop-inlärning genom att samla mänskliga och robotdemonstrationsdata för att bygga upp förkunskaper genom meta-learning.
3,618,072
One-Shot Imitation from Observing Humans via Domain-Adaptive Meta-Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,401
Abstract-Diffential privacy är allmänt accepterat som ett kraftfullt ramverk för att ge starka, formella integritetsgarantier för aggregerad dataanalys. En begränsning av modellen är att samma nivå av integritetsskydd ges för alla individer. Det är dock vanligt att de registrerade har helt olika förväntningar på den godtagbara sekretessnivån för sina uppgifter. Differentiell integritet kan därför leda till ett otillräckligt integritetsskydd för vissa användare, samtidigt som andra överbeskyddas. Vi hävdar att genom att acceptera att inte alla användare kräver samma nivå av integritet, kan en högre nivå av nytta ofta uppnås genom att inte ge överdriven integritet till dem som inte vill ha det. Vi föreslår en ny integritetsdefinition som kallas personlig differentiell integritet (PDP), en generalisering av differentiell integritet där användarna specificerar ett krav på personlig integritet för sina uppgifter. Vi inför sedan flera nya mekanismer för att uppnå PDP. Vår primära mekanism är en generell mekanism som automatiskt omvandlar alla befintliga differentialt privata algoritmer till en som uppfyller PDP. Vi presenterar också en mer direkt strategi för att uppnå PDP, inspirerad av den välkända exponentiella mekanismen. Vi demonstrerar vårt ramverk genom omfattande experiment på verkliga och syntetiska data.
Jörgensen m.fl. REF inför en ny integritetsdefinition som kallas personlig differentiell integritet, en generalisering av differentiell integritet där användarna specificerar ett krav på personlig integritet för sina uppgifter.
14,075,003
Conservative or liberal? Personalized differential privacy
{'venue': '2015 IEEE 31st International Conference on Data Engineering', 'journal': '2015 IEEE 31st International Conference on Data Engineering', 'mag_field_of_study': ['Computer Science']}
82,402
Sentimentanalys betraktas i allt högre grad som en viktig uppgift både ur akademisk och kommersiell synvinkel. De flesta av de nuvarande strategierna syftar dock till att upptäcka den totala polariteten i en mening, punkt eller textomfång, oavsett vilka enheter som nämns (t.ex. bärbara datorer) och deras aspekter (t.ex. batteri, skärm). SemEval-2014 Uppgift 4 syftade till att främja forskning inom området aspektbaserad känsloanalys, där målet är att identifiera aspekter av givna målenheter och den känsla som uttrycks för varje aspekt. Uppgiften innehöll dataset med manuellt kommenterade recensioner av restauranger och bärbara datorer, samt ett gemensamt utvärderingsförfarande. Det lockade 163 bidrag från 32 lag.
Den senaste 2014 SemEval Task on aspect-based sense analyses REF handlade om att identifiera mål för känslor i recensioner av restauranger och bärbara datorer.
1,021,411
SemEval-2014 Task 4: Aspect Based Sentiment Analysis
{'venue': 'SemEval@COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,403
Forskare har föreslagit en mängd olika mått för att mäta viktiga grafegenskaper, till exempel i sociala, biologiska och datornätverk. Värden för en viss graf metriska kan fånga en grafs motståndskraft mot fel eller dess routing effektivitet. Kunskap om lämpliga metriska värden kan påverka designen av framtida topologier, reparationsstrategier inför misslyckanden och förståelse av grundläggande egenskaper hos befintliga nätverk. Tyvärr finns det vanligtvis inga algoritmer för att generera grafer som matchar en eller flera föreslagna mätvärden och det finns liten förståelse för sambanden mellan individuella mätvärden eller deras tillämplighet på olika inställningar. Vi presenterar ett nytt systematiskt tillvägagångssätt för att analysera nätverkstopologier. Vi introducerar först dK-serien av sannolikhetsfördelningar som specificerar alla grad korrelationer inom d-stora subgrafer i en given graf G. Ökande värden av d fånga gradvis fler egenskaper hos G på bekostnad av mer komplex representation av sannolikhetsfördelningen. Med hjälp av denna serie kan vi kvantitativt mäta avståndet mellan två grafer och konstruera slumpmässiga grafer som exakt reproducerar praktiskt taget alla mätvärden som föreslås i litteraturen. DK-seriens karaktär innebär att den också kommer att fånga upp eventuella framtida mätvärden som kan komma att föreslås. Med vårt tillvägagångssätt konstruerar vi grafer för d = 0, 1, 2, 3 och visar att dessa grafer reproducerar, med ökande noggrannhet, viktiga egenskaper hos uppmätta och modellerade Internet topologier. Vi finner att d = 2 fallet är tillräckligt för de flesta praktiska ändamål, medan d = 3 väsentligen rekonstruerar Internet AS-och router-nivå topologier exakt. Vi hoppas att en systematisk metod för att analysera och syntetisera topologier erbjuder en betydande förbättring av den uppsättning verktyg som finns tillgängliga för att nätverka topologi och protokollforskare.
Vi antar den systematiska ramen för dK-serien REF, som infördes för att karakterisera egenskaperna hos en oriktad graf med hjälp av en serie sannolikhetsfördelningar som specificerar alla grad korrelationer inom d-storlek, enkel, och anslutna subgrafer av en given graf G. I detta ramverk, högre värden av d fånga gradvis fler egenskaper hos G på bekostnad av mer komplex representation av sannolikhetsfördelningen.
62,737,829
Systematic Topology Analysis and Generation Using Degree Correlations
{'venue': 'SIGCOMM 2006 (ACM SIGCOMM Computer Communication Review (CCR), v.36, n.4, p.135-146, 2006)', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']}
82,404
Abstract-Wireless sensornätverk övervakar dynamiska miljöer som förändras snabbt över tid. Detta dynamiska beteende orsakas antingen av externa faktorer eller initieras av systemdesignerna själva. För att anpassa sig till sådana förhållanden använder sensornätverk ofta maskininlärningsteknik för att eliminera behovet av onödig omdesign. Maskininlärning inspirerar också många praktiska lösningar som maximerar resursutnyttjandet och förlänger nätverkets livslängd. I denna uppsats presenterar vi en omfattande litteraturgenomgång under perioden 2002-2013 av maskininlärningsmetoder som användes för att ta itu med vanliga problem i trådlösa sensornätverk (WSN). Fördelarna och nackdelarna med varje föreslagen algoritm utvärderas mot motsvarande problem. Vi ger också en jämförande guide för att hjälpa WSN-designers att utveckla lämpliga maskininlärningslösningar för sina specifika tillämpningsutmaningar.
Alsheikh m.fl. REF ger en översikt över befintliga maskininlärningsmetoder som används i WSN.
8,475,881
Machine Learning in Wireless Sensor Networks: Algorithms, Strategies, and Applications
{'venue': 'IEEE Communications Surveys&Tutorials, vol. 16, no. 4, pp. 1996-2018, Fourthquarter 2014', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,405
Abstract-I trådlösa paket vidarebefordring nätverk med själviska noder, tillämpningar av ett upprepat spel kan förmå noderna att vidarebefordra varandras paket, så att nätverkets prestanda kan förbättras. Noderna på gränsen till sådana nätverk kan dock inte dra nytta av denna strategi, eftersom de andra noderna inte är beroende av dem. Detta problem är ibland känt som förbannelsen av gränsnoder. För att lösa detta problem, ett tillvägagångssätt som bygger på koalitionsspel föreslås, där gränsnoder kan använda kooperativ överföring för att hjälpa ryggraden noder i mitten av nätverket. I gengäld är ryggrad noderna villiga att vidarebefordra gränsnodernas paket. Koalitionernas stabilitet studeras med hjälp av begreppet kärna. Sedan undersöks två typer av rättvisa, nämligen minmax-rättvisan med hjälp av nucleolus och den genomsnittliga rättvisan med hjälp av Shapley-funktionen. Slutligen är ett protokoll utformat med hjälp av både upprepade spel och koalitionsspel. Simuleringsresultat visar hur gränsnoder och ryggradsnoder bildar koalitioner tillsammans enligt olika rättvisa kriterier. Det föreslagna protokollet kan förbättra nätverksanslutningen med cirka 50 % jämfört med renodlade spelsystem.
I REF användes koalitionsspel kombinerat med upprepade spel för att få gränsnoder och ryggradsnoder att samarbeta för paketspedition.
1,533,787
Coalition Games with Cooperative Transmission: A Cure for the Curse of Boundary Nodes in Selfish Packet-Forwarding Wireless Networks
{'venue': 'in the Proceedings of the 5th International Symposium on Modeling and Optimization in Mobile Ad Hoc and Wireless Networks, WiOpt07, Limassol, Cyprus, April 16-20, 2007', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,406
Noggrannheten och tillförlitligheten hos algoritmer för maskininlärning är ett viktigt problem för leverantörer av artificiell intelligens (AI) tjänster, men överväganden utöver noggrannhet, såsom säkerhet, säkerhet och härkomst, är också avgörande faktorer för att skapa konsumenternas förtroende för en tjänst. I detta dokument föreslår vi en leverantörs försäkran om överensstämmelse (SDoC) för AI-tjänster för att öka förtroendet för AI-tjänster. En SDoC är ett transparent, standardiserat, men ofta inte juridiskt nödvändigt dokument som används inom många branscher och sektorer för att beskriva en produkts härstamning tillsammans med den säkerhets- och prestandatest som den har genomgått. Vi föreställer oss en SDoC för AI-tjänster för att innehålla syfte, prestanda, säkerhet, säkerhet och härkomst information som ska fyllas i och frivilligt släppas av AI-tjänstleverantörer för granskning av konsumenter. Viktigt är att den förmedlar produktnivå snarare än funktionstestning på komponentnivå. Vi föreslår en uppsättning deklarationsobjekt anpassade till AI och ger exempel på två fiktiva AI-tjänster.
SDOC:s eller leverantörens försäkran om överensstämmelse diskuteras i REF för att tillhandahålla transparenta rapporteringstjänster för förtroende för AI.
52,071,272
Increasing Trust in AI Services through Supplier's Declarations of Conformity
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Biology', 'Computer Science']}
82,407
Abstrakt. Vi fortsätter en forskning som inleddes i [10, 11] om integritetsbevarande av statistiska databaser. Tänk på en pålitlig server som har en databas med känslig information. Med tanke på en frågefunktion f kartläggning databaser till reals, är det så kallade sanna svaret resultatet av att tillämpa f till databasen. För att skydda integritet, är det sanna svaret störs av tillägg av slumpmässiga buller genereras enligt en noga vald distribution, och detta svar, det sanna svaret plus buller, returneras till användaren. Tidigare arbete fokuserade på fallet med bullriga summor, där f = P i g (xi), där xi betecknar ith raden i databasen och g kartor databasrader till [0, 1]. Vi utökar studien till allmänna funktioner f, Bevisa att integritet kan bevaras genom att kalibrera standardavvikelsen för buller enligt känsligheten för funktionen f. Grovt talat, Detta är den mängd som varje enskilt argument till f kan ändra sin utgång. Den nya analysen visar att för flera specifika tillämpningar behövs betydligt mindre buller än vad som tidigare ansågs vara fallet. Det första steget är en mycket ren karaktärisering av integritet i termer av oskiljaktighet av utskrifter. Dessutom får vi separationsresultat som visar det ökade värdet av interaktiva saniteringsmekanismer över icke-interaktiva.
Den första primitiva är Laplacian mekanismen REF.
2,468,323
Calibrating Noise to Sensitivity in Private Data Analysis
{'venue': 'TCC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,408
Datagruppering i lämpliga klasser och kategorier är en av de viktiga frågorna för mönsterigenkänning. Det är mycket bra och mycket effektivt att antalet uppgifter som är felklassificerade minimeras eller med andra ord data som klassificerats i varje klass har varit möjligt så mycket möjligt likhet tillsammans. I denna artikel i den första, en grundläggande metod för datakluster som heter K-Means Clustering uttrycktes och sedan med genetisk algoritm, vårt förslag modell som vi kallade det GA-Clustering för att förbättra K-Means metod har införts. Slutligen undersöktes denna modell på några av de välkända uppgifterna. Resultaten visar att vår metod samlar data bättre än traditionell K-Means Clustering algoritm betydligt.
Maghsoudi m.fl. föreslog en ny modell för att förbättra k-mean kluster algoritm baserad på genetisk algoritm REF.
54,916,292
Representing The New Model For Improving K-means Clustering Algorithm Based On Genetic Algorithm
{'venue': 'Journal of Mathematics and Computer Science', 'journal': 'Journal of Mathematics and Computer Science', 'mag_field_of_study': ['Computer Science']}
82,409
Vi presenterar diffusions-konvolutionella neurala nätverk (DCNN), en ny modell för grafstrukturerade data. Genom införandet av en diffusion-konvolutionsoperation visar vi hur diffusion-baserade representationer kan läras från grafstrukturerade data och användas som en effektiv grund för nodklassificering. DCNNs har flera attraktiva egenskaper, inklusive en latent representation för grafiska data som är invariant under isomorfism, samt polynom-tid förutsägelse och lärande som kan representeras som tensor verksamhet och effektivt implementeras på GPU. Genom flera experiment med verkliga strukturerade datauppsättningar visar vi att DCNN kan överträffa probabilistiska relationsmodeller och kernel-on-graph-metoder vid klassificering av relationell nod.
Diffusionskonvolutionella neurala nätverk REF utvecklas genom att använda diffusions operatör för grafkonvolution.
15,483,870
Diffusion-Convolutional Neural Networks
{'venue': 'NIPS 2016', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,410
Vi undersöker det skrivna mänskliga språkets karaktär inom ramen för komplex nätverksteori. I synnerhet analyserar vi topologin för Orwells 1984 med fokus på nätverkets lokala egenskaper, såsom de närmaste grannarnas egenskaper och klusterkoefficienten. Vi hittar en sammansatt makt lag beteende för både den genomsnittliga närmaste granne grad och genomsnittliga kluster koefficient som en funktion av vertex grad. Detta innebär att det finns olika funktionella klasser av hörn. Dessutom anser vi att den andra ordern vertex korrelationer är en viktig komponent i nätverksarkitekturen. För att modellera våra empiriska resultat utökar vi en tidigare introducerad språkmodell på grund av Dorogovtsev och Mendes. Vi föreslår en accelererad växande nätverksmodell som innehåller tre tillväxtmekanismer: linjärt preferensfäste, lokalt preferensfäste och slumpmässig tillväxt av en förutbestämd liten ändlig delmängd av initiala hörn. Vi finner att med dessa elementära stokastiska regler kan vi producera ett nätverk som visar syntaktiska strukturer.
Masucci och Rodgers i REF undersökte nätverkets topologi av Orwells '1984' med fokus på de lokala fastigheterna: närmaste grannar och klusterkoefficienten.
1,072,371
Network properties of written human language
{'venue': 'Phys Rev E.74. 026102, 2006', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Physics', 'Medicine']}
82,411
Abstrakt. Att tillämpa Model-Driven Engineering (MDE) leder till skapandet av ett stort antal metamodeller, eftersom MDE rekommenderar en intensiv användning av modeller som definieras av metamodeller. Metamodeller med liknande mål skapas då ofrånkomligen. En återkommande fråga är därför att vända kompatibla modeller som överensstämmer med liknande metamodeller, till exempel att använda dem i samma verktyg. Frågan är klassiskt löst och utvecklar ad hoc-modellomvandlingar. I detta dokument föreslår vi ett tillvägagångssätt som automatiskt upptäcker kartläggningar mellan två metamodeller och använder dem för att skapa en anpassning mellan dessa metamodeller. Denna inställning måste kontrolleras manuellt och kan sedan användas för att generera en modellomvandling. Vår strategi bygger på Likhet Översvämningsalgoritm som används inom schema matchning och ontologi anpassning. Experimentella resultat som jämför effektiviteten i tillämpningen av olika genomföranden av denna metod på verkliga metamodeller ges.
Bidraget från REF består av att utvärdera olika parameteriseringar av likhetsöversvämningsalgoritmen för att beräkna kartläggningarna.
14,870,136
Metamodel Matching for Automatic Model Transformation Generation
{'venue': 'MoDELS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,412
Crowdsourcing har blivit ett framgångsrikt paradigm under det senaste årtiondet, eftersom Web 2.0-användare har tagit en mer aktiv roll i att producera innehåll samt konsumera det. På senare tid har detta paradigm utvidgats till att omfatta allestädes närvarande tillämpningar, där smarttelefonanvändare bidrar med information om sin omgivning, vilket ger en kollektiv kunskap om den fysiska världen. Godkännandet och öppenheten av sådana ansökningar har dock gjort det enkelt att bidra med innehåll av dålig kvalitet. Olika lösningar har föreslagits för den webbaserade domänen, för att hjälpa till med övervakning och filtrering av innehåll av dålig kvalitet, men dessa metoder misslyckas när de tillämpas på allestädes närvarande crowdsourcing, där uppgiften att samla in information måste utföras kontinuerligt och i realtid, av en ständigt föränderlig publik. I detta dokument diskuterar vi utmaningarna för kvalitetskontroll i allestädes närvarande crowdsorucing och föreslår en ny teknik som resonerar om användarnas rörlighetsmönster och kvaliteten på deras tidigare bidrag för att uppskatta användarens trovärdighet.
Mashhadi och Capra REF diskuterar kvalitetskontroll för allestädes närvarande crowdsourcing i realtid.
17,073,347
Quality control for real-time ubiquitous crowdsourcing
{'venue': "UbiCrowd '11", 'journal': None, 'mag_field_of_study': ['Engineering']}
82,413
Abstract-djup förstärkning lärande (RL) har visat sig vara en kraftfull teknik i många sekventiella beslutsfattande domäner. Robotik innebär dock många utmaningar för RL, främst utbildning på ett fysiskt system kan vara dyrt och farligt, vilket har väckt stort intresse för att lära kontroll politik med hjälp av en fysiksimulator. Flera senaste arbeten har visat lovande resultat i att överföra policyer som är utbildade i simulering till den verkliga världen, men de utnyttjar ofta inte fullt ut fördelen med att arbeta med en simulator. I detta arbete utnyttjar vi den fulla observerbarheten i simulatorn för att träna bättre policyer som tar som insats endast partiella observationer (RGBD-bilder). Vi gör detta genom att använda en skådespelare-kritisk träningsalgoritm där kritikern utbildas i fullständiga stater medan skådespelaren (eller policyn) får återgivna bilder som input. Vi visar experimentellt på en rad simulerade uppgifter att användningen av dessa asymmetriska ingångar avsevärt förbättrar prestandan. Slutligen kombinerar vi denna metod med domän randomisering och visar riktiga robotexperiment för flera uppgifter som att plocka, trycka och flytta ett block. Vi uppnår denna simulering till verkliga världen överföring utan utbildning på någon verklig värld data. Videor av dessa experiment finns på www.goo.gl/b57WTs.
I Ref författare utnyttja fullt tillstånd observerbarhet i simulatorn för att lära sig bättre politik som tar som indata partiell observation som RGB-D-avbildningar.
23,865,056
Asymmetric Actor Critic for Image-Based Robot Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Engineering']}
82,414
Sammanfattning Där I detta dokument föreslår vi ett matematiskt ramverk som är generiskt, eftersom det inte är specifikt för någon särskild programvaruartefakt, och rigoröst, eftersom det är baserat på exakta matematiska begrepp. Denna ram definierar flera viktiga mätkoncept (storlek, längd, komplexitet, sammanhållning, koppling Många koncept har införts genom åren för att definiera egenskaperna hos de artefakter som produceras under programvaruprocessen. Till exempel, man talar om storlek och komplexitet av programvara specifikation, design och kod, eller sammanhållning och koppling av en programvara design eller kod. Flera tekniker har införts, med målet att producera programvara som är bättre med avseende på dessa begrepp. Som ett exempel försöker Parnas (P72) designprinciper minska kopplingen mellan moduler och öka sammanhållningen inom moduler. Dessa begrepp används som vägledning för att välja mellan alternativa tekniker eller artefakter. Till exempel, en teknik kan föredras framför en annan eftersom det ger artefakter som är mindre komplexa; en artefakt kan föredras framför en annan eftersom det är mindre komplex. University of Maryland CS-TR-3368 -2 definition av relevanta begrepp (dvs. klasser av programvarukarakteriseringsåtgärder) är det första steget mot kvantitativ bedömning av programvaruartefakter och -tekniker, som behövs för att bedöma risker och hitta optimala avvägningar mellan programvaras kvalitet, schema och utvecklingskostnader. För att fånga dessa begrepp på ett kvantitativt sätt har hundratals programvaruåtgärder definierats i litteraturen. De allra flesta av dessa åtgärder överlevde dock inte förslagsfasen och lyckades inte bli accepterade i den akademiska eller industriella världen. Ett skäl till detta är att de inte har byggts med hjälp av en klart definierad process för att definiera programvaruåtgärder. Som vi föreslår i [BMB94(b)] bör en sådan process drivas av tydligt identifierade mätmål och kunskap om programvaruprocessen. En av dess viktigaste verksamheter är den exakta definitionen av relevanta begrepp, som är nödvändiga för att fastställa en strikt ram för programvarutekniska åtgärder och för att definiera meningsfulla och välgrundade programvaruåtgärder. Den teoretiska sundheten hos en åtgärd, dvs. det faktum att den verkligen mäter den programvara som den ska mäta, är en uppenbar förutsättning för dess acceptans och användning. Den undersökande processen att söka efter samband är inte i sig en godtagbar vetenskaplig valideringsprocess om den inte åtföljs av en solid teori som stöder den. Tyvärr är nya programvaruåtgärder mycket ofta definierade för att fånga gäckande begrepp som komplexitet, sammanhållning, koppling, konnektivitet, etc. (Endast storleken kan anses vara någorlunda väl förstådd.) Det är därför omöjligt att bedöma de nya föreslagna åtgärdernas teoretiska sundhet, och godkännandet av en ny åtgärd är till största delen en fråga om tro. I detta syfte har flera förslag lagts fram i litteraturen [LJS91, TZ92, W88] under de senaste åren för att ge önskvärda egenskaper för programvaruåtgärder. Dessa arbeten (särskilt [W88]) har använts för att "validera" befintliga och nyligen föreslagna programvaruåtgärder. Förvånansvärt nog, när en ny åtgärd som föreslogs som en programvara komplexitet åtgärd inte uppfyller den uppsättning egenskaper mot vilken det kontrollerades, flera författare misslyckades med att dra slutsatsen att deras åtgärd inte var en programvara komplexitet åtgärd, t.ex., [CK94, H92]. I stället drog de slutsatsen att deras åtgärd var en komplicerad åtgärd som inte tillfredsställer denna uppsättning egenskaper för komplexa åtgärder. Vad de faktiskt gjorde var att ge en absolut definition av en programvara komplexitet åtgärd och kontrollera om egenskaperna var förenliga med åtgärden, dvs. kontrollera egenskaperna mot sin egen åtgärd. Denna situation skulle vara oacceptabel inom andra tekniska eller matematiska områden. Anta till exempel att man definierar en ny åtgärd och hävdar att den är en distansåtgärd. Antag också att denna åtgärd misslyckas med att tillfredsställa triangeln ojämlikhet, som är kännetecknande egenskap avstånd åtgärder. Den naturliga slutsatsen skulle vara att inse att det inte är ett avståndsmått, snarare än att säga att det är ett avståndsmått som inte uppfyller villkoren för ett avståndsmått. Det är dock sant att ingen av de uppsättningar av egenskaper som hittills föreslagits har nått så bred acceptans för att betraktas som "rätt uppsättning av nödvändiga egenskaper för komplexitet. Det är vår ståndpunkt att denna märkliga situation beror på att det finns flera olika begrepp som fortfarande omfattas av samma ord: komplexitet. Inom den uppsättning allmänt nämnda programvaruegenskaper, storlek och komplexitet är de som har fått största uppmärksamhet. De flesta författare har dock varit benägna att tro att en åtgärd fångar antingen storlek eller komplexitet, som om, förutom storlek, alla andra koncept relaterade till programvaruegenskaper skulle kunna grupperas under det unika namnet komplexitet. Ibland har till och med storlek betraktats som en särskild form av komplexitetsåtgärd. I själva verket fångar dessa begrepp olika programvaruegenskaper, och tills de är tydligt åtskilda och deras likheter och skillnader tydligt studeras, kommer det att vara omöjligt att nå någon form av samförstånd om de egenskaper som kännetecknar varje koncept som är relevant för definitionen av programvaruåtgärder. Syftet med detta dokument är att lägga grunden för en diskussion om detta ämne genom att tillhandahålla egenskaper för en partial uppsättning mätkoncept som är relevanta för definitionen av programvaruåtgärder. Många av de mätegenskaper som föreslås i litteraturen är generiska i den meningen att de inte karakteriserar specifika mätbegrepp utan är relevanta för alla syntaktiska åtgärder (se [S92, TZ92, W88]). I den här artikeln vill vi fokusera på egenskaper som skiljer mätbegrepp som storlek, komplexitet, koppling m.m. Därför vill vi identifiera och klargöra de väsentliga egenskaperna bakom dessa begrepp som är vanliga inom programvaruteknik och bildar viktiga åtgärdsklasser. På så sätt kommer forskarna att kunna validera sina nya åtgärder genom att kontrollera egenskaper som är särskilt relevanta för den klass (eller koncept) de tillhör (t.ex. storlek bör vara additiv). Dessa egenskaper bör inte på något sätt betraktas som den unika uppsättning av egenskaper som eventuellt kan definieras för ett givet begrepp. Snarare vill vi ge en teoretiskt sund och bekväm lösning för att differentiera en uppsättning välkända begrepp och kontrollera deras analogier och konflikter. Möjliga tillämpningar av en sådan ram är att vägleda forskare i deras sökande efter nya åtgärder och hjälpa yrkesutövare att bedöma lämpligheten av åtgärder som tillhandahålls av kommersiella verktyg. Vi anser också att undersökningen av åtgärder även bör omfatta artefakter som produceras i programvaruprocessen förutom kod. Det anses allmänt att de tidiga programvaruprocessfaserna är de viktigaste, eftersom resten av utvecklingen beror på de artefakter de producerar. Ofta är de begrepp (t.ex. storlek, komplexitet, sammanhållning, koppling) som anses relevanta med avseende på kod också relevanta för andra artefakter. För detta ändamål kommer de egenskaper vi föreslår att vara tillräckligt allmänna för att vara tillämpliga på en stor uppsättning artefakter. Tidningen är organiserad enligt följande. I avsnitt 2 introducerar vi de grundläggande definitionerna av vårt ramverk. Avsnitt 3 ger en uppsättning egenskaper som karakteriserar och formaliserar intuitivt relevanta mätkoncept: storlek, längd, komplexitet, sammanhållning, koppling. Vi diskuterar också relationerna och skillnaderna mellan de olika begreppen. Några av de mest kända åtgärderna används som exempel för att illustrera våra punkter. Avsnitt 4 innehåller jämförelser och diskussioner om de egenskaper för komplexa åtgärder som definieras i dokumentet och i litteraturen. Slutsatserna och riktlinjerna för det framtida arbetet återfinns i avsnitt 5. Innan vi introducerar de nödvändiga egenskaperna för den uppsättning begrepp som vi avser att studera, ger vi grundläggande definitioner relaterade till objekt för studier (på vilka dessa begrepp kan tillämpas), t.ex. storlek och komplexitet av vad? Två av de begrepp som vi kommer att undersöka, nämligen storlek (avsnitt 3.1) och komplexitet (avsnitt 3.3) är relaterade till system, i allmänhet, dvs. man kan tala om storleken på ett system och komplexiteten i ett system. Vi inför också ett nytt koncept, längd (avsnitt 3.2), som är relaterat till system. I vårt allmänna ramverk-upphäver att vi vill att dessa egenskaper ska vara så oberoende som möjligt av varje produkt abstraktion-, ett system kännetecknas av dess element och förhållandet mellan dem. Därför minskar vi inte antalet möjliga systemrepresentationer, eftersom element och relationer kan definieras efter behov. Ett system S kommer att representeras som ett par <E,R>, där E representerar uppsättningen av element av S, och R är en binär relation på E (R på E × E) som representerar förhållandet mellan S element. Med tanke på ett system S = < E,R> är ett system m = < E m,R m > en modul av S om och endast om E m med E, R m med E × E och R med R. Som exempel kan E definieras som en uppsättning kodangivelser och R som en uppsättning kontrollflöden från ett uttalande till ett annat. En modul m kan vara ett kodsegment eller ett delprogram. elementen i en modul är anslutna till elementen i resten av systemet genom inkommande och utgående relationer. Den uppsättning InputR(m) av förhållanden från element utanför modulen m = <E m,R m > till dem av modul m definieras som InputR(m) = { <e 1,e 2 > R på e 2 e m och e 1 E m } Den uppsättning OutputR(m) av förhållanden från elementen i en modul m = < E m,R m > till dem i resten av systemet definieras som OutputR(m) = { <e 1,e 2 > R på grund av elementen i en modul m = < E m,R m > på grund av resten av systemet är definierad som OutputR(m) = { <e 1,e 2 > på grund av R på grund av att E m och e 2 på grund av E-E m } på University of Maryland CS-TR-3368 -4 Vi inför nu inkludering, union, interaktioner för moduler och definitioner av tomma och delade moduler, som ofta kommer att användas i resten av papperet. För notationell bekvämlighet, kommer de att betecknas genom att förlänga den vanliga set-teoretiska notation. Vi ska illustrera dessa operationer med hjälp av systemet S = <E,R> representerat i figur 1, där E = {a,b,c,d,f,g,h,i,j,k,l,m} och R = {<b,a>, <b,f>, <c,b>, <c,d>, <c,g>, <d,f>, <e,g>, <f,k>, <g,m>, <h,a>, <h,i>, <i,j>, <k,j>, <k,j>, <k,l>}. Vi kommer att överväga följande moduler -m 1 = <E m1,R m1 > = <{a,b,f,j,k}, { <b,a>, <b,f>, <f,k>, <i,j>, <k,j>} (område fyllt med ) -m 2 = <E m2,R m2 > = <{f,j,k}, { <f,k>, <k,j>} (område fyllt med ) -m 3 = <E m3,R m3 > = <{c,d,e,f,g,j,m},<c,d>, <c,g>, <d>,f,j>>> (område fyllt med) -m 4 = m4,R m4 > = <d,g}, <e,f> (område fyllt med) Modul m 1 = <E m1,R m1 > sägs ingå i modul m 2 = <E m2,R m2 > (notering: m 1 på m 2 ) om E m1 på m2 och R på m2. I figur 1, m 4 på m 3. Fackförening. Sammanslutningen av moduler m 1 = <E m1,R m1 > och m 2 = <E m2,R m2 > (notation: m 1 på m 2 ) är modulen <E m1 på m2,R m1 på m2 >. I figur 1 är sammansättningen av modulerna m 1 och m 3 modul m 13 = <{a,b,c,d,e,f,g,i,j,k,m}, { <b,a>, <b,f>, <c,d>, <c,g>, <d,f>, <e,g>, <f,i>, <f,k>, <g,m>, <i,j>, <k,j>} (område fyllt med eller ). Genomskärning. Skärningspunkten mellan modulerna m 1 = <E m1,R m1 > och m 2 = <E m2, R m2 > (notation: m 1 på m 2 ) är modulen <E m1 på m2,R m1 på m2 >. I figur 1, m 2 = m 1 på m 3. Töm modulen. Modul < ∅, ∅> (benämns av ∅) är den tomma modulen. Eftersom modulerna i detta ramverk bara är delsystem kan alla system teoretiskt sett brytas ned i moduler. Definitionen av en modul för en viss åtgärd i ett specifikt sammanhang är bara en fråga om bekvämlighets- och programmeringsmiljö (t.ex. språk) begränsningar. University of Maryland CS-TR-3368 -5 De andra två begreppen vi kommer att undersöka, sammanhållning (avsnitt 3.4) och koppling (avsnitt 3.5), är meningsfulla endast med hänvisning till system som är utrustade med en modulär nedbrytning, d.v.s. kan man tala om sammanhållning och koppling av ett helt system endast om det är strukturerat i moduler. Man kan också tala om sammanhållning och koppling av en enda modul inom ett helt system. Den 3-tums MS = <E,R,M> representerar ett modulärt system om S = <E,R> är ett system enligt definition 1, och M är en samling moduler av S så att på ett sådant sätt att E (t.ex. m) M (m = <E m,R m > och E m ) ) och E m 1,m 2 M (m 1 = <E m1,R m1 > och m 2 = <E m2,R m2 > och E m1 E m2 = ∅) d.v.s. uppsättningen av element E i MS delas in i modulernas uppsättningar av element. Vi betecknar föreningen av alla R m's som IR. Det är uppsättningen av intra-modul relationer. Eftersom modulerna är osammanhängande är föreningen av alla OutputR(m)'s lika med föreningen av alla InputR(m)'s, som är lika med R-IR. Det är uppsättningen av inter-module relationer. Som exempel kan E vara uppsättningen av alla deklarationer av en uppsättning Ada moduler, R uppsättningen beroenden mellan dem, och M uppsättningen av Ada moduler. Figur 2 visar ett modulärt system MS = < E,R,M>, som erhålls genom att dela upp systemets uppsättning element i figur 1 på ett annat sätt. I detta modulsystem är E och R desamma som i system S i figur 1, och M = {m 1,m 2,m 3 }.
I detta arbete använde vi en annan modell för modulrepresentation (baserad på LDL) och bevisade formellt att de föreslagna åtgärderna respekterar ramverkets egenskaper genom REF.
15,168,145
Property-based Software Engineering Measurement
{'venue': 'IEEE Transactions on Software Engineering', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,415
Det är välkänt att vid låg-bit-rate block diskret cosinus omvandla komprimerad bild uppvisar visuellt irriterande blockering och ringande artefakter. I detta dokument föreslår vi en noniterativ, wavelet-baserad avblockeringsalgoritm för att reducera båda typerna av artefakter. Algoritmen utnyttjar det faktum att blocket diskontinuiteter begränsas av fm kvantiseringsintervall i kvantiseringstabellen, liksom beteendet hos våget modulus maxima evolution över våget skalor för att härleda lämpliga tröskelkartor på olika våget skalor. Eftersom ringande artefakter förekommer nära starka kanter, som kan placeras antingen längs blockgränser eller inom block, dämpning av block diskontinuiteter inte alltid minska ringande artefakter. Genom att utnyttja beteendet hos ringande artefakter i den vågformade domänen föreslår vi en enkel men effektiv metod för att undertrycka sådana artefakter. Den föreslagna algoritmen kan undertrycka både block diskontinuiteter och ringande artefakter effektivt samtidigt som sanna kanter och textural information bevaras. Simuleringsresultat och omfattande jämförande studie med både iterativa och icke-iterativa metoder som rapporterats i litteraturen har visat hur effektiv vår algoritm är. Index Terms-Block diskret cosinustransform (BDCT), blockera artefakter, överkompletta wavelet, wavelet avblockering.
I frekvensdomänen, Liew et al. REF använder våget transformera och härleda trösklar på olika våget skalor för denoisering.
9,562,697
Blocking artifacts suppression in block-coded images using overcomplete wavelet representation
{'venue': 'IEEE Transactions on Circuits and Systems for Video Technology', 'journal': 'IEEE Transactions on Circuits and Systems for Video Technology', 'mag_field_of_study': ['Computer Science']}
82,416
Typiska rekommendationssystem antar en statisk bild av rekommendationsprocessen och behandlar den som ett förutsägelseproblem. Vi anser att det är lämpligare att betrakta problemet med rekommendationer som ett problem med successiva beslut och följaktligen att Markov de cision processes (MDP) ger en mer lämplig modell för rekommendationssystem. MDP medför två fördelar: de tar hänsyn till de långsiktiga effekterna av varje rekommendation, och de tar hänsyn till det förväntade värdet av varje rekommendation. För att lyckas i praktiken måste ett MDP-baserat rekommendationssystem ge upphov till en stark första modell, och huvuddelen av detta dokument handlar om att skapa en sådan modell. Framför allt föreslår vi att man använder en prediktiv n-grammodell för att generera den ini tiala MDP. Vår n-gram modell inducerar en Markov kedja modell av användarens beteende vars prediktiv noggrannhet är större än den för befintliga predikativa modeller. Vi beskriver vår prediktiva modell i detalj och utvärderar dess prestanda på verkliga data. Dessutom visar vi hur modellen kan användas i ett MDP-baserat rekommendationssystem.
Rekommendationsprocessens sekventiella karaktär noterades tidigare i REF.
875,571
An MDP-based Recommender System
{'venue': None, 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,417
Abstract-A brandvägg är en säkerhetsvakt placerad mellan ett privat nätverk och det externa Internet som övervakar alla inkommande och utgående paket. En brandväggs funktion är att undersöka varje paket och besluta om man ska acceptera eller kassera det baserat på brandväggens policy. Denna policy specificeras som en följd av (eventuellt motstridiga) regler. När ett paket kommer till en brandvägg söker brandväggen efter den första regeln som paketet matchar, och verkställer beslutet om den regeln. Med den explosiva tillväxten av Internet-baserade program och skadliga attacker, antalet regler i brandväggar har ökat snabbt, vilket därmed försämrar nätverksprestanda och genomströmning. I detta dokument föreslår vi Firewall Compressor, ett ramverk som avsevärt kan minska antalet regler i en brandvägg samtidigt som brandväggens semantik förblir oförändrad. Vi lämnar tre viktiga bidrag i detta dokument. För det första föreslår vi en optimal lösning med dynamiska programmeringstekniker för att komprimera endimensionella brandväggar. För det andra presenterar vi ett systematiskt tillvägagångssätt för att komprimera flerdimensionella brandväggar. Sist utförde vi omfattande experiment för att utvärdera Firewall Compressor. När det gäller effektivitet uppnår Firewall Compressor ett genomsnittligt kompressionsförhållande på 52,3% på reallife rule set. När det gäller effektivitet körs Firewall Compressor på några sekunder även för en stor brandvägg med tusentals regler. Dessutom är de algoritmer och tekniker som föreslås i detta dokument inte begränsade till brandväggar. I stället kan de tillämpas på andra regelbaserade system som paketfilter på internetroutrar.
Alex och Al. utvecklat en teknik för att komprimera brandväggspolitiken genom att minimera antalet filter REF.
6,459,636
Firewall Compressor: An Algorithm for Minimizing Firewall Policies
{'venue': 'IEEE INFOCOM 2008 - The 27th Conference on Computer Communications', 'journal': 'IEEE INFOCOM 2008 - The 27th Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']}
82,418
Som en konvergens av traditionell energisystemteknik och informationsteknik har smarta nät, som kan ge en bekväm drifts- och ledningsmiljö för kraftleverantören, väckt stort intresse på senare tid. Men framgången med smarta nät står fortfarande inför många utmaningar när det gäller datasäkerhet och integritetsbevarande. I detta dokument föreslår vi en effektiv integritetsbevarande flerdimensionellt aggregeringssystem för smarta nät, kallat PAS. Utan att lämna ut sekretesskänslig information (t.ex. identitet och strömförbrukning) för användare, kan operationscentret få antalet användare och strömförbrukning i varje steg i olika dimensioner. Baserat på ett förbättrat Paillier cryptosystem, kan operationscentret skaffa mer giltig information för att reglera den genererade energin, och ett effektivt anonymt autentiseringssystem används för att skydda integriteten för användarens identitet från det regionala centret. Detaljerad säkerhetsanalys visar PAS säkerhet och integritetsbevarande förmåga. Dessutom visar prestandautvärderingar via omfattande simuleringar att PAS implementeras med stor effektivitet för smarta nät när det gäller beräkning och kommunikation.
REF införde ett effektivt system för integritetsbevarande multidimensionell aggregation som kallas PAS.
45,310,344
PAS: An Efficient Privacy-Preserving Multidimensional Aggregation Scheme for Smart Grid
{'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']}
82,419
Att gå mot autonom drift och förvaltning av alltmer komplexa öppna distribuerade realtidssystem innebär mycket stora utmaningar. Detta gäller särskilt när reaktioner på händelser måste göras i rätt tid och på ett förutsägbart sätt samtidigt som man garanterar kvalitetskrav (QoS) som åläggs av användare, miljö eller tillämpningar. I dessa scenarier bör systemet kunna upprätthålla en global genomförbar QoS-nivå och samtidigt tillåta enskilda noder att självständigt anpassa sig under olika begränsningar av resurstillgång och insatskvalitet.Detta dokument visar hur decentraliserad samordning av en grupp av autonoma beroende noder kan uppstå med liten kommunikation, baserat på de robusta självorganiserande principerna för återkoppling. Positiv feedback används för att stärka valet av den nya önskade globala servicelösningen, samtidigt som negativ feedback avskräcker noder från att agera på ett girigt sätt eftersom detta inverkar negativt på de tillhandahållna servicenivåerna vid angränsande noder.Det föreslagna protokollet är tillräckligt allmänt för att användas i ett brett spektrum av scenarier som kännetecknas av en hög grad av öppenhet och dynamik där samordningsuppgifter måste vara tidsberoende. Som de rapporterade resultaten demon-strategi, kräver det mindre meddelanden att utbytas och det är snabbare att uppnå en globalt acceptabel nära optimal lösning än andra tillgängliga metoder. Att gå mot autonom drift och förvaltning av alltmer komplexa öppna distribuerade realtidssystem innebär mycket stora utmaningar. Detta gäller särskilt när reaktioner på händelser måste göras i rätt tid och på ett förutsägbart sätt samtidigt som man garanterar kvalitetskrav (QoS) som åläggs av användare, miljö eller tillämpningar. I dessa scenarier bör systemet kunna upprätthålla en global genomförbar QoS-nivå och samtidigt göra det möjligt för enskilda noder att självständigt anpassa sig under olika begränsningar när det gäller resurstillgänglighet och insatskvalitet. Detta dokument visar hur decentraliserad samordning av en grupp oberoende knutpunkter kan utvecklas med liten kommunikation, baserad på de robusta självorganiserande principerna för återkoppling. Positiv feedback används för att stärka valet av den nya önskade globala servicelösningen, medan negativ feedback avskräcker noder från att agera på ett girigt sätt eftersom detta inverkar negativt på de tillhandahållna servicenivåerna vid angränsande noder. Det föreslagna protokollet är tillräckligt allmänt för att användas i ett brett spektrum av scenarier som kännetecknas av en hög grad av öppenhet och dynamik där samordningsuppgifter måste vara tidsberoende. Som de rapporterade resultaten visar, kräver det färre meddelanden att utbytas och det är snabbare att uppnå en globalt godtagbar nästan optimal lösning än andra tillgängliga metoder.
Ett annat exempel presenteras också i REF där ett QoS-anpassningsförfarande är utformat för att passa in i de olika begränsningarna av resurstillgänglighet och insatskvalitet i ett samordnat system med decentraliserade noder.
4,908,135
A feedback-based decentralised coordination model for distributed open real-time systems
{'venue': 'J. Syst. Softw.', 'journal': 'J. Syst. Softw.', 'mag_field_of_study': ['Computer Science']}
82,420